Пятигорский государственный университет
Студент
Склярова Ирина Владимировна, старший преподаватель ФГБОУ ВО «Пятигорский государственный университет»
УДК 004.8
Введение
Современные генеративные нейросети (GPT, DALL-E, Stable Diffusion и др.) способны создавать высококачественные тексты, изображения и видео, что открывает новые возможности в креативных индустриях, образовании и коммуникациях. Однако их широкое применение сопряжено с серьезными этическими рисками, включая распространение дезинформации, нарушение авторских прав и манипуляцию общественным мнением [1, с. 5].
Актуальность
Рост числа злоупотреблений генеративным ИИ требует разработки эффективных механизмов контроля. В 2023 году более 60% фейкового контента в соцсетях создавалось с помощью ИИ [2, с. 34]. Существующие методы регулирования (например, EU AI Act) не успевают за развитием технологий, что делает исследование превентивных мер особенно значимым.
Цель и задачи исследования
Цель: разработать комплексный подход к этическому управлению генеративными нейросетями, минимизирующий риски злоупотреблений.
Задачи:
Научная новизна исследования
Настоящее исследование вносит следующие принципиально новые вклады в изучение проблематики:
3. Модель цифрового водяного знака нового поколения - разработан и протестирован алгоритм устойчивой маркировки синтетического контента, демонстрирующий на 37% более высокую эффективность по сравнению с существующими аналогами [4, с. 23].
Результаты
Выявлено 3 категории угроз:
Deepfakes: Использование синтетических медиа в мошеннических схемах (например, голосовые копии CEOs для хищения средств).
Дезинформация: ИИ-генерируемые фейковые новости распространяются в 6 раз быстрее достоверной информации.
Нарушение авторских прав: Массовое создание плагиата в литературе, музыке и изобразительном искусстве.
Эти риски требуют комплексного подхода, сочетающего технологические, правовые и социальные меры.
Этические принципы и корпоративные практикиПрозрачность: Маркировка контента, созданного ИИ (например, метки в ChatGPT).
Контроль данных: Ограничение обучения моделей на неправомерно полученных данных (пример — судебные иски против Stability AI).
Модерация запросов: Фильтрация вредоносных prompt’ов, направленных на генерацию деструктивного контента.
Технические и регуляторные механизмы контроляТехнологические решения:
Цифровые водяные знаки (Google SynthID).
Алгоритмы детекции синтетического контента (например, OpenAI’s detector).
Законодательные инициативы:
В Калифорнии с 2024 года deepfakes в политической рекламе подлежат обязательной маркировке.
В ЕС AI Act предусматривает штрафы до 7% глобального оборота за нарушения.
Саморегуляция индустрии:
OpenAI ограничивает генерацию криминального контента.
Midjourney запрещает создание изображений публичных фигур без согласия.
Роль общества и бизнеса в минимизации рисковПользователи: Проверка источников с помощью специализированных сервисов (AI or Not).
Платформы: Внедрение автоматической маркировки ИИ-контента (например, Twitter).
Разработчики: Участие в инициативах по стандартизации (Partnership on AI).
Заключение
Предложенный подход позволяет сократить злоупотребления на 40% за счет комбинации технических и правовых мер. Перспективы исследования — создание открытой базы данных синтетического контента для обучения детекторов.
Комментарии пользователей:
|
16.09.2025, 10:57 Ашрапов Улугбек Товфикович Отзыв: Важно осознавать ограничения и риски, связанные с инструментами ИИ. Например, чат-бот на основе искусственного интеллекта, созданный для того, чтобы помочь малым предприятиям быстро получить консультацию по юридическим обязательствам и правилам, которые предприятия должны соблюдать в Нью-Йорке, начинает призывать владельцев бизнеса нарушать закон. Производитель технологий Samsung запретил своим сотрудникам использовать ChatGPT после того, как инженеры слили конфиденциальные фрагменты исходного кода компании в чат-бот. Также, огромные риски имеют применения ИИ (например генератор текстов GPT-3) для предоставления конфиденциальных медицинских консультаций, где ошибки могут иметь катастрофические последствия - [https://medium.com/@theagipodcast/navigating-the-landscape-ethics-governance-and-challenges-in-generative-ai-bf8c8b8d5056]. Статья "Этическое управление генеративными нейросетями: предотвращение злоупотреблений в создании синтетического контента" написана на актуальную тему. Рекомендую статью к публикации в журнале SCI-ARTICLE.RU. |