Домой Новости Цифровые каннибалы. Нейросети уничтожают культурный код человечества?

Цифровые каннибалы. Нейросети уничтожают культурный код человечества?

0


Цифровые каннибалы. Нейросети уничтожают культурный код человечества?

Развитие искусственного интеллекта (ИИ) сегодня подаётся как безусловное благо: новые технологии, быстрые решения, цифровой прорыв. Но за этим оптимистичным фоном всё громче звучит вопрос — а за чей счёт этот прогресс происходит? Ответ на самом деле не так прост. Писатели, журналисты, композиторы, художники и вообще все люди творческих профессий бьют тревогу — нейросети сегодня фактически занимаются «каннибализмом», «пожирая» объекты их творчества и тем самым нивелируя саму идею креатива, создания чего-то нового в области культуры, искусства и науки.


Когда ученик «съедает» своего учителя

Дело в том, что любые системы ИИ учатся не в вакууме. Нужно понимать, что все нейросети, «умные чаты», «голосовые помощники из колонки» не способны к мышлению в человеческом понимании. Это всего лишь алгоритмы, очень сложные и многогранные, но в сути своей лишь математические модели, набор формул и производных. Грубый пример: знаменитый Т9 в старых кнопочных телефонах. Тогда, в 90-х, казалось чудом, что аппарат угадывает, какое именно слово ты хочешь набрать. Но это лишь расчёты вероятностей буквенных сочетаний на основе математической модели, которой «скормили» словарь русского языка Ожегова.

Современные системы искусственного интеллекта сложнее на порядок. Но в сути своей от Т9 не отошли. Просто их «кормят» огромными массивами данных — текстами, статьями, аналитикой, новостями. Миллиардами слов и предложений. И значительная часть этих материалов создаётся журналистами, редакциями, издательствами. Это не просто тексты из интернета, а проверенная, отредактированная информация, за которой стоит работа людей.

Недолго музыка играла…

Такая ситуация «медиаканнибализма» характерна не только для СМИ. Весьма показателен недавний скандал с вечным хитом группы «Ласковый Май» — песней «Белые розы». Кавер-версия песни «Седая ночь» (Silver Night), переделанная искусственным интеллектом под голос американского рэпера Канье Уэста, заняла первое место в мировом рейтинге. Промпт (задание) для ИИ на переделку песни дал пользователь August Septemberov, который первый и выложил получившуюся композицию на своей странице в соцсетях.

Но история получила продолжение. Композиция вскоре вышла на стримингах и заняла первое место в мировом рейтинге популярной американской музыкальной платформы.

«При этом в исполнителях ИИ-версии Silver Night указан некто Tender May, к которому я не имею никакого отношения. У них нет моего согласия на использование моей переработки», — рассказал August Septemberov журналистам «АиФ-Ставрополь».

Оказалось, что под ником Tender May скрывается бывший продюсер группы «Ласковый май» Андрей Разин, который сбежал из России за границу после того, как против него возбудили уголовное дело за подделку авторского договора на песни Юрия Шатунова и Сергея Кузнецова. И публикация Silver Night на стримингах уже принесла Разину около 10 миллионов рублей отчислений за прослушивание.

Этот случай наглядно поднимает вопрос, кто же всё-таки истинный автор результата творческого труда музыкального коллектива. И почему в итоге деньги за композицию получил человек, который никакого отношения ни к нейросетям, ни к созданию базового трека не имел?

Это явно указывает на пробел в законодательстве и вообще на «кривость» системы взаимодействия авторов и создателей алгоритмов нейросетей.

Обсуждение проекта

В России в экспертных группах сейчас обсуждается проект Федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Согласно опубликованному документу, предполагается ввести единые правила для разработки, внедрения и использования ИИ-систем в стране. Ожидается, что закон начнёт действовать с 1 сентября 2027 года.

Но законопроект уже вызвал бурные дискуссии в профессиональной авторской среде, поскольку он фактически закрепит для разработчиков право использовать любой контент для обучения нейросетей — без согласия авторов и без какой-либо оплаты. Достаточно того, что материал был опубликован в открытом доступе.

На первый взгляд, звучит логично: раз текст доступен, значит, его можно использовать. Но на практике это означает, что чужой труд становится бесплатным ресурсом для создания коммерческих продуктов. ИИ-сервисы зарабатывают, а те, кто создаёт основу для их работы, — нет.

При этом действующее законодательство говорит об обратном: использовать произведения можно только с согласия правообладателя. Есть исключения, но они касаются узких случаев и не предполагают извлечения прибыли. Массовое обучение ИИ — это уже совсем другая история.

«Ситуация, конечно, несправедливая. Фактически весь объём нашего контента спокойно и без последствий забирают нейросети, и мы никак повлиять на это не можем. При этом со стороны разработчиков ИИ финансовый прессинг понемногу начинается, в частности, некоторые сервисы генерации картинок прямо запрещают использовать полученные изображения для коммерческого использования. То есть обучают свои модели на наших авторских фотографиях и видео, но результат этого обучения мы бесплатно использовать уже не можем», — комментирует генеральный директор медиахолдинга «РИА Оренбуржье» Олег Сураев.

Ещё одна проблема — полная непрозрачность. Разработчики не обязаны раскрывать, какие именно тексты пошли в обучение моделей и как именно были использованы для улучшения алгоритмов. То есть СМИ и авторы даже не могут понять, использовались ли их материалы, где и для чего.

В других странах этот вопрос уже пытаются решать. Где-то вводят обязательные выплаты издателям, где-то — механизмы переговоров и даже принудительный арбитраж, если стороны не договорились. В России же пока таких инструментов в законопроекте нет.

Между тем компромисс возможен. Например, через лицензионные соглашения: разработчик получает доступ к качественным данным, а издатель — понятные условия и оплату. Это прозрачная и цивилизованная модель, которая выгодна обеим сторонам.

Ещё один вариант — дать правообладателям возможность заранее запретить использование своих материалов для обучения ИИ. Например, пометив специальной меткой, знаком, сосканировав который, ИИ обязан стереть массив данных автора. Такой «цифровой запрет» уже применяется за рубежом и показывает свою эффективность.

«Я лично полностью поддерживаю идею налаживания взаимовыгодной коммуникации между разработчиками ИИ-сервисов и авторами контента. В том числе хорошая идея о введении маркировки уникальных материалов, которые нейросети не будут забирать для обработки и обучения. Другой вопрос, как на практике всё это будет работать, как это отследить? Технический уровень ИИ настолько высок, что проверить и доказать – берут или нет материалы даже с ограничениями, наверное, будет крайне сложно», – считает Сураев.

«Регулировать сферу искусственного интеллекта, безусловно, нужно. Причём мы уже фактически отстаём: регулирование в той или иной форме введено почти во всём мире. В Китае, в США — пусть и через набор отдельных законов, в странах Латинской Америки, в Евросоюзе принят рамочный закон, который сейчас внедряется на уровне отдельных государств. У нас же при этом риски, связанные с развитием искусственного интеллекта, уже реализовались — и довольно серьёзно, – считает российский предприниматель в сфере информационных технологий Игорь Ашманов. – Например, в сфере образования ситуация близка к критической. Студенты массово используют искусственный интеллект для написания курсовых и дипломов. Но что ещё хуже — преподаватели начинают делать то же самое.

Вторая проблема — размывание ответственности. Искусственный интеллект становится удобным объяснением для любых решений. Мы уже видим это в финансовой сфере: людям блокируют переводы, и объяснение одно — «так решил искусственный интеллект». При этом оспорить такие решения зачастую невозможно.

Как итог – бесконтрольное внедрение ИИ в социальной сфере уже приводит к серьёзным перекосам. Люди сталкиваются с чат-ботами вместо живого общения, не могут добиться ответа ни от банка, ни от оператора связи… Это создаёт ощущение полной оторванности системы от человека.

Законопроект, который сейчас обсуждает, в основном направлен на стимулирование отрасли и почти не содержит ограничений. Параллельно в Совете Федерации разработан другой подход. Его суть — не регулировать саму технологию, а регулировать системы, в которых используется искусственный интеллект.

И главное — определить недопустимые сценарии применения. То есть создать своего рода «санитарные правила». Например, нельзя принимать юридически значимые решения в отношении человека полностью автоматически. Должна сохраняться возможность пересмотра решения живым специалистом. Любой результат, полученный с помощью искусственного интеллекта, должен быть явно обозначен как таковой.

Отдельный блок — борьба с фейками: необходимы ограничения и ответственность за их распространение.

По сути, речь идёт о правилах, похожих на правила дорожного движения — понятных и обязательных для всех».