Воскресенье, 3 декабря 2023 года
Выбор редакции

Новости сегодня

00 : 15
Миллиончик дай: зачем Лиз Трасс летит в Вашингтон и на что будет просить денег
20 : 00
Что нужно знать россиянам о нововведениях в сфере ЖКХ
18 : 45
Как отреагировал Илон Маск на предложение представителя ХАМАС Хамдана посетить сектор Газа
16 : 20
Может опять в телик? ЦРУ США сделали странное предложение Зеленскому
16 : 19
Приметы и обычаи на праздник Введение во храм Пресвятой Богородицы 4 декабря 2023 года
16 : 17
Праздник Введения во храм Пресвятой Богородицы является для Церкви одним из главных событий Священной истории
16 : 14
Сегодня, 4 декабря, Православная Церковь отмечает праздник Введения (входа) во храм Пресвятой Богородицы
16 : 11
4 декабря православные чтут великое событие — Введение во храм Пресвятой Богородицы 2023
16 : 08
Православные христиане поздравляют друг друга с праздником Введение во храм Пресвятой Богородицы
16 : 05
Введение во храм Пресвятой Богородицы — христианский праздник, принадлежащий к числу двунадесятых
Больше новостей

Эксперты предложили сформировать рабочую группу по разработке договора о безопасности ИИ

Эксперты предложили сформировать рабочую группу по разработке договора о безопасности ИИ

Накануне первого мирового саммита, посвященного безопасности ИИ, эксперты, в том числе ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, подписали открытое письмо. В нем содержится призыв к «разработке и ратификации договора о безопасности ИИ, который получит широкое одобрение во всем международном сообществе, созданию рабочей группы на Саммите по безопасности ИИ в Великобритании при широкой международной поддержке для разработки плана для этого.”

Такой международный договор о безопасности ИИ должен включать несколько основных компонентов, в том числе:

  • Всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ.
  • “ЦЕРН” по безопасности ИИ: масштабное совместное объединение ресурсов, опыта и знаний в деле безопасности ИИ.
  • Комиссию по соблюдению договора: она должна отвечать за мониторинг соблюдения договора, ее роль должна быть аналогична роли Международного агентства по атомной энергии (МАГАТЭ).

Целями такого договора являются:

  • Снижение катастрофических рисков, которые системы искусственного интеллекта представляют для человечества, путем предотвращения бесконтрольного масштабирования возможностей искусственного интеллекта.
  • Обеспечение доступа к благам ИИ для всех людей.

Эта коалиция научных экспертов, лидеров бизнеса и государственного управления примечательна тем, что находится в авангарде международного регулирования ИИ: некоторые из подписавшихся лиц входят в Консультативный орган высокого уровня ООН по ИИ или входят в число немногих избранных экспертов, приглашенных на Международный саммит по безопасности ИИ, который состоялся в Лондоне 1 и 2 ноября 2023 года.

Китайский учёный Йи Цзэн заявил: «Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться». Йи Цзэн добавил: «Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади».

Инициативу открытого письма возглавил британский прогнозист Толга Билге.


Новости партнеров