Понедельник, 7 апреля 2025 года
Выбор редакции

Как ИИ может уничтожить человечество: тревожный прогноз Хинтона на 30 лет вперёд

Как ИИ может уничтожить человечество: тревожный прогноз Хинтона на 30 лет вперёд

Британско-канадский ученый Джеффри Хинтон, который сделал значительный вклад в развитие искусственного интеллекта, предупредил о возможной угрозе, исходящей от этой технологии. Он изменил свои прогнозы и теперь считает, что существует вероятность от 10% до 20% того, что ИИ может стать причиной вымирания человечества в течение ближайших 30 лет. Хинтон акцентирует внимание на важности разработки безопасных и этичных систем ИИ, чтобы избежать сценариев, которые могут угрожать человеческому существованию. Об этом сообщает comandir.com

Искусственный интеллект и его опасности: предупреждение Хинтона о 30-летнем сроке

Джеффри Хинтон, один из ведущих экспертов в области искусственного интеллекта, недавно изменил свои оценки вероятности катастрофических последствий, связанных с развитием ИИ. Ранее он считал, что риск составляет 10%, но теперь он поднял эту цифру до 10–20%. В эфире программы Today на BBC Radio 4, отвечая на вопрос о своих изменениях в оценке, Хинтон подчеркнул, что человечество никогда не встречалось с существами, которые превосходят его по интеллекту. Он отметил, что в истории не было случаев, когда более умные существа подчинялись менее разумным, за исключением, возможно, отношений между матерью и младенцем. В этом случае эволюция создала механизмы, позволяющие ребенку влиять на мать, но таких аналогий крайне мало. Хинтон выразил опасения, что в сравнении с высокоразвитыми системами ИИ люди будут выглядеть как трехлетние дети, что подчеркивает необходимость серьезного подхода к вопросам безопасности и этики в области искусственного интеллекта.

ИИ беспокоит «крестного отца»?

Джеффри Хинтон, один из пионеров в области искусственного интеллекта, неоднократно выражал свои опасения касательно неконтролируемого прогресса в этой сфере. В 2023 году он принял решение уйти с поста в Google, чтобы иметь возможность открыто говорить о рисках, связанных с развитием технологий ИИ, особенно о том, что такие технологии могут быть использованы недобросовестными игроками для достижения своих целей. Хинтон выделяет одну из главных угроз: создание искусственного интеллекта, который превзойдет человеческий интеллект. Это может привести к ситуации, когда контроль над такими системами будет утерян.

Отвечая на вопрос о том, ожидал ли он столь быстрого прогресса в области ИИ, Хинтон признал, что не предполагал такого развития событий. Он полагал, что человечество столкнется с подобными проблемами лишь в будущем. Тем не менее, по его словам, большинство экспертов считают, что в течение следующих 20 лет будут созданы системы, обладающие более высоким интеллектом, что вызывает у него серьезные опасения.

Хинтон подчеркивает, что темпы развития технологий оказались гораздо выше его ожиданий, и настоятельно призывает к регулированию этой отрасли. Он сомневается, что рыночные механизмы смогут обеспечить необходимую безопасность, указывая на то, что крупные компании, ориентированные на прибыль, не будут уделять должного внимания потенциальным рискам. По его мнению, единственным способом заставить эти компании инвестировать в исследования безопасности является государственное регулирование.

Несмотря на то что Хинтон является одним из основателей искусственного интеллекта и лауреатом премии Тьюринга, его мнения не всегда совпадают с мнениями его коллег. Янн Лекун, еще один лауреат этой премии, придерживается более оптимистичного взгляда, считая, что искусственный интеллект может помочь человечеству избежать угрозы вымирания. Это разногласие подчеркивает сложность вопросов, связанных с развитием ИИ, и необходимость открытого обсуждения его будущего.

Читайте также


Новости партнеров