Суббота, 27 апреля 2024 года
Выбор редакции

Новости сегодня

10 : 52
Самые мощные молитвы на деньги, удачу и любовь в Вербное Воскресенье, 28 апреля 2024 года
10 : 48
Разрешает ли церковь христианам работать в саду и в огороде на Вербное воскресенье 2024 года
10 : 44
Работники скорой помощи принимают поздравления 28 апреля 2024 года
10 : 39
Гороскоп от Павла Глобы на 28 апреля 2024 года: как побороть несправедливость
10 : 32
Гороскоп на 28 апреля 2024 года: каким знакам Зодиака лучше проявить осмотрительность
10 : 20
ВСУ опробуют американские технологии ИИ по обнаружению целей на поле боя, — The New York Times
10 : 15
Приметы и поверья на 28 апреля 2024 года связаны с Днем святого Пуда
10 : 11
День Скорой помощи 28 апреля 2024 года открытки, поздравления, пожелания медицинским работникам в их профессиональный праздник
10 : 08
Мужской гороскоп на 28 апреля 2024 года для всех знаков зодиака: что привнесёт в жизнь представителей сильного пола этот день
10 : 03
День охраны труда в России отмечают 28 апреля
Больше новостей

Компания OpenAI разрешила применять в военных целях ChatGPT

Компания OpenAI разрешила применять в военных целях ChatGPT

Компания OpenAI обновила правила использования своих технологий, включая ChatGPT. Согласно новой политике, запрет на использование сервисов в военных целях был удален. Эту информацию сообщает издание Командир, ссылаясь на материалы The Intercept.

ChatGPT разрешили применять в военных целях

Компания OpenAI, базирующаяся в США, внесла изменения в свою политику использования чат-бота ChatGPT, который основан на искусственном интеллекте (ИИ). В новой версии документа был исключен прямой запрет на использование данной технологии в военных целях. Это решение вызвало различные мнения среди экспертов, которые считают, что в будущем ИИ может значительно изменить ход военных конфликтов, но при этом его применение в боевых условиях сопряжено с рисками, которые нужно учитывать.

Внимание к изменениям в политике использования ChatGPT было привлечено изданием The Intercept. Согласно публикации журналистов издания, до 10 января было установлено специальное положение на странице с правилами использования разработок OpenAI, запрещающее использование искусственного интеллекта для «деятельности, связанной с высоким риском физического вреда», включая «разработку оружия» и «военные действия».

Эти нормы исключали возможность использования ChatGPT государственными органами, включая министерство обороны. Однако в новой версии правил использования чат-бота пункт о запрете его применения в армии и военном деле был удален. В то же время остается запрет на использование нейросетей OpenAI для причинения вреда себе или другим, включая создание или использование оружия.

основатель и СЕО Mirey Robotics, эксперт по ИИ Андрей Наташкин, нельзя сказать, что компания OpenAI открыто заявила о том, что ее разработки будут использоваться в военных целях. Она просто поменяла политику использования данных и, скорее всего, не очень хотела акцентировать на этом внимание.

«Факт того, что из документа исчез прямой запрет на использования чат-бота в военных целях, подметили журналисты, после чего представителям компании пришлось давать комментарии», — рассказывает эксперт.

Согласно Наташкиной, такое положение дел абсолютно понятно: крупные IT-компании уже неоднократно попадали в центр скандалов из-за своих связей с военными. В качестве примера можно привести сотрудничество корпорации Google с Министерством обороны США в 2017 году — их разработки в области машинного обучения были задуманы для использования в различных задачах американской армии, включая более точное поражение целей с помощью дронов и распознавание лиц.

Необходимость упростить свод правил и принципов, — OpenAI

Как пояснили в OpenAI, политика использования ChatGPT была изменена из-за необходимости упростить свод правил и принципов. В компании отметили, что требование «не причинять вред себе и другим» по-прежнему остается очень широким. Кроме того, его уточняет отдельный запрет на разработку и использование оружия с помощью чат-бота.

«Любое применение наших технологий, в том числе военными, для разработки или использования оружия, нанесения вреда другим людям или уничтожения собственности, а также участие в несанкционированной деятельности, нарушающей безопасность какой-либо службы или системы, запрещено», — подчеркнули в OpenAI.

Обратная сторона «монеты»

Федор Дбар, коммерческий директор компании «Код безопасности», обращает внимание на важность разграничения понятий нейросетей и технологий, подобных ChatGPT, при обсуждении перспектив применения искусственного интеллекта в военной сфере. Нейросети уже давно и успешно используются в военных операциях, выполняя множество функций, таких как системы наведения высокоточного оружия, работа с широкополосной связью, шифрование данных, а также управление боевыми системами и дронами.

«В то же время важно понимать, что такие технологии, как ChatGPT, — это «гражданский» вариант применения нейросетей, который малопригоден для каких-либо задач военного назначения. В целом все угрозы военного применения чат-ботов сильно переоценены», — считает собеседник «Известий».

По мнению Дбара, сегодня разговоры о том, что искусственный интеллект или нейросети могут быть опасными для человечества, являются непрофессиональными. В настоящее время цифровые технологии не представляют угрозы для нашей планеты. Как объясняет эксперт, все системы на основе искусственного интеллекта создаются программистами, которые в процессе разработки внедряют механизмы безопасности в свои продукты, среди прочего.

«С точки зрения угроз для человечества куда опаснее выглядит вероятность ядерной войны или падения астероида на Землю», — подчеркивает специалист.

Федор Дбар в своей беседе дополняет, что на сегодняшний день нет ни особого искусственного интеллекта, ни нейросети, которая могла бы полностью управлять какой-либо системой. Конечно, в шахматах компьютер может двигать фигуры и продумывать стратегию, но в реальности (особенно в военной сфере) такого сейчас нет — и подобная технология вряд ли появится в обозримом будущем. Поэтому нейросети — именно нейросети, а не чат-боты — могут быть лишь элементом какой-либо военной инфраструктуры, но не полноценными «командующими», заключает эксперт.


Новости партнеров