На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Пронедра

447 подписчиков

Свежие комментарии

  • Олег Поветьев
    В СССР заплатили на сто лет вперёд где деньги?В Минэнерго назва...
  • Ирина Некрасова
    Они все как один в Азербайджане такие вот мухтарлы! И не инцидентов надо бояться России, а адекватные ответные меры п...Журналист Мухтарл...
  • Владимир Уфимцев
    Один вопрос: а можно этого МУХТАРЛЫ - ОСУДИТЬ нашим, российским судом, вплоть до смертной казни, и приговор исполнить...Журналист Мухтарл...

Компания Anthropic нашла способ обучать ИИ на книгах, затем уничтожая их

В мире, где технологии развиваются быстрее, чем успевает реагировать законодательство, возникают ситуации, которые ставят под сомнение саму сущность интеллектуальной собственности. Последний резонансный случай связан с американской компанией Anthropic, разрабатывающей искусственный интеллект. Она оказалась в центре судебного скандала — но сумела обернуть его себе на пользу, создав потенциально опасный прецедент.

Цифровой каннибализм: книги на корм ИИ По данным издания Ferra.ru, в ходе обучения своей языковой модели Claude компания Anthropic применила метод, вызвавший ожесточённые споры: миллионы бумажных книг были физически уничтожены. Ради получения «чистого» цифрового текста, пригодного для анализа и машинного обучения, специалисты срезали корешки книг, сканировали страницы, а затем избавлялись от самих экземпляров, превращая их в макулатуру.

Это не просто технический шаг — это философская и юридическая дилемма. Уничтожая оригиналы, компания заявляет, что не копирует произведения для дальнейшего распространения, а совершает акт «трансформации» — создания нового знания на основе старого материала. Суд поверил: уничтожение как аргумент Ключевым моментом судебного разбирательства стал тот факт, что Anthropic не собирается публиковать или продавать оцифрованные книги. Все цифровые копии используются исключительно для «внутренних нужд» — то есть для обучения ИИ.

Суд признал: поскольку оригинальные носители уничтожены, а цифровые копии не пойдут «в народ», это можно считать «добросовестным использованием» (fair use). Более того, именно уничтожение книг стало аргументом в пользу компании — ведь, по мнению суда, это подтверждает отсутствие коммерческой выгоды от самих текстов.

Новая реальность: закон не поспевает за технологиями Это решение стало первой вехой на пути, где ИИ получают доступ к миллионам защищённых авторским правом произведений без согласия авторов или издателей. И если сегодня это касается Anthropic, то завтра на такую же практику могут опереться и другие гиганты вроде Google, OpenAI или Meta.

Правозащитники и юристы в сфере авторского права уже бьют тревогу: подобные действия открывают ящик Пандоры. Создатели художественных и научных текстов теряют контроль над использованием своих трудов, а системы ИИ учатся буквально на руинах культуры, без уплаты роялти или лицензий. Граница между использованием и эксплуатацией Сторонники Anthropic уверяют: модель Claude не «запоминает» книги, а лишь извлекает из них статистические закономерности, чтобы лучше понимать язык. Но кто проверит, не сможет ли модель в будущем сгенерировать почти точный текст «1984» Оруэлла или «Гарри Поттера» Роулинг — просто по запросу пользователя?

Как быть с поэтами, писателями, переводчиками, которые посвятили жизнь своему делу? Получается, что ИИ может воспользоваться их трудами, не попросив разрешения — и даже не поблагодарив. Последствия: от судов до новых законов Решение суда в пользу Anthropic может стать толчком к пересмотру законодательства о цифровых копиях, авторском праве и применении ИИ в образовании и индустрии. В США уже обсуждаются законопроекты, ограничивающие использование защищённых текстов в обучении ИИ. Европа и Азия внимательно следят за прецедентом.

Для России это также становится актуальным — в условиях развития собственных языковых моделей, таких как GigaChat, «Сварог» или «РУСЛАН», необходимо заранее определить: как и на чьих текстах эти системы будут обучаться? Что дальше? Компания Anthropic одержала частичную победу, но окончательная битва ещё впереди. Общество стоит перед выбором: либо признать, что обучение ИИ требует новых подходов и жертв, либо настаивать на неприкосновенности культурного наследия.

И пока суды спорят о тонкостях «добросовестного использования», машины продолжают учиться — возможно, на ваших любимых книгах.

Ранее на сайте "Пронедра" писали про нейросети против учёных: 5 ИИ, которые уже сегодня решают задачи лучше людей

 

Ссылка на первоисточник
наверх