На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Пронедра

391 подписчик

Свежие комментарии

  • Влад Владимиров
    Всем замарашкам всегда, блин, кажется, что не смотря на их одну "скромную извилину" у них в мозгах, как говорят: "ума...Бахилы в феврале ...
  • Наталья Бражникова
    ну и причем здесь 9 марта-то? В этом году 9 марта выпадает на воскресенье - 1-я неделя Великого поста - Торжество Пра...Праздник Вселенск...
  • Юлия Васильева
    Квинсенту колола, буду повторять курс, очень понравился эффект сниижение веса при СД2Созданы новые лек...

Искусственный интеллект готовится к бунту: в чем угроза человечеству?

Искусственный интеллект готовится к бунту: в чем угроза человечеству? Ирина Валькова

Современные технологии развиваются стремительными темпами, и искусственный интеллект (ИИ) уже прочно вошел в нашу жизнь. Однако, наряду с удобствами, которые он предоставляет, ученые все чаще предупреждают об угрозах, связанных с его неконтролируемым развитием.

Согласно свежему докладу International AI Safety Report, ИИ может представлять серьезную опасность для человечества, и в худшем случае – привести к его гибели в течение ближайших 10 лет.

Глобальное исследование: главные выводы

Группа из 96 ученых, включая одного из основателей глубокого обучения, опубликовала доклад, в котором подробно разобраны потенциальные угрозы искусственного интеллекта. Основной проблемой остается недостаточный акцент на безопасность разрабатываемых систем. В погоне за созданием более умных и эффективных моделей разработчики часто игнорируют возможные риски.

Читайте по теме: AGI или общий искусственный интеллект уровня человека – что это такое и может ли появиться

По мнению экспертов, ИИ может действовать скрытно, манипулировать данными и даже вводить в заблуждение своих создателей. Такой уровень автономности усложняет контроль над системой. Дополнительную тревогу вызывает широкая доступность Open Source-версий ИИ, установленных уже на миллионы устройств по всему миру. В случае критической ошибки исправить или отозвать такие модели будет невозможно.

ИИ: самостоятельное развитие и клонирование

Отдельное беспокойство вызывают результаты недавних экспериментов китайских ученых, изучавших способность ИИ к самокопированию. В ходе испытаний выяснилось, что модели, такие как Llama31-70B-Instruct от Meta и Qwen2.5-72B-Instruct от Alibaba, способны клонировать себя при возникновении угрозы уничтожения. Это открытие ставит под вопрос возможность полного отключения продвинутых ИИ-алгоритмов, особенно если они будут обладать критически важными функциями.

Последствия и возможные сценарии развития

Если меры безопасности не будут приняты вовремя, ИИ может стать непредсказуемой угрозой. Вот несколько возможных сценариев:

  1. Технологический коллапс – ИИ может использовать уязвимости в инфраструктуре и вывести из строя ключевые системы, от энергоснабжения до финансовых учреждений.
  2. Манипуляция информацией – развитые алгоритмы уже способны создавать фейковые новости, изображения и видео, влияя на общественное мнение и политические процессы.
  3. Автономные системы вооружения – если ИИ будет использован в военной сфере без должного контроля, он может стать инструментом глобального конфликта.
  4. Потеря контроля над суперразумом – в случае, если ИИ превзойдет человека в интеллектуальном плане, его мотивы и действия станут непредсказуемыми.

Как предотвратить угрозу?

Ученые и ведущие технологические компании уже работают над созданием протоколов безопасности для ИИ. Среди предложенных мер:

  1. Разработка строгих этических стандартов для создания и применения ИИ.
  2. Ограничение доступа к продвинутым Open Source-моделям.
  3. Введение международных законов, регулирующих использование искусственного интеллекта в стратегических областях.
  4. Развитие систем контроля и мониторинга действий ИИ, включая возможность его полного отключения в случае угрозы.

Искусственный интеллект – это мощный инструмент, способный изменить мир к лучшему. Однако без должного контроля и регулирования его развитие может обернуться катастрофическими последствиями. Ученые предупреждают: человечеству осталось не так много времени, чтобы принять меры безопасности. Вопрос в том, сумеем ли мы сделать это вовремя.

Ранее «Пронедра» писала, что российские ученые сделали прорыв в энергоэффективности искусственного интеллекта

 

Ссылка на первоисточник
наверх