В эпоху стремительного развития «умных» технологий эксперты объяснили, что такое AGI — общий искусственный интеллект, способный сравниться с человеческим. Несмотря на заметные успехи современных ИИ-систем, они все еще не достигли уровня, близкого к AGI. О будущем общего искусственного интеллекта, его потенциальных возможностях, а также рисках и важных характеристиках рассказывается на trends.rbc.ru. Подробности — в статье портала Командир.
AGI — что это такое: общий искусственный интеллект уровня человека
С развитием технологий и искусственного интеллекта эксперты все чаще обращаются к вопросу появления общего искусственного интеллекта (AGI), который будет способен сравниться с человеческим разумом. Несмотря на значительные успехи современных ИИ-систем, они все еще не достигли того уровня универсальности и гибкости, который необходим для полноценного AGI. О том, что это за технология, как она может развиваться и какие потенциальные риски с ней связаны, рассказывают ведущие специалисты.

Что такое AGI и какие особенности он должен иметь? Будущее AGI тесно связано с развитием нейронаук, и многие эксперты считают, что создание системы, способной действовать как человек, возможно уже в ближайшие годы. AGI — это искусственный интеллект, который будет способен решать широкий спектр задач, проявляя когнитивную гибкость, обучаясь и адаптируясь к новым условиям. В отличие от узкоспециализированных ИИ, решающих конкретные задачи, AGI будет обладать универсальными возможностями, такими как способность к абстрактному мышлению, логическому анализу и построению причинно-следственных связей.
Основное внимание при создании AGI уделяется развитию зрительного восприятия. Современные ИИ-системы до сих пор не могут полностью распознавать цвета и интерпретировать визуальную информацию так же, как это делает человек. Похожие трудности наблюдаются и в области аудиовосприятия, ведь искусственный интеллект пока не в состоянии точно различать звуки в сложных акустических условиях или выделять важную информацию на фоне шума.
Помимо этого, для полноценного функционирования AGI требуются улучшенные моторные и языковые способности, а также способность к самостоятельному решению проблем. ИИ должен не только обнаруживать проблему, но и предлагать способы её решения без вмешательства человека, что требует от системы развитых механизмов обучения и прогнозирования. Важной характеристикой AGI также является креативность: он должен уметь анализировать большие объемы данных и улучшать собственные алгоритмы.
Не менее важным аспектом является социальная и эмоциональная вовлеченность. Для успешного взаимодействия с людьми искусственный интеллект должен уметь распознавать эмоциональные состояния, интонации и выражения лиц. На данный момент эта задача остается сложной и далека от решения.
Перспективы создания AGI
На сегодняшний день научное сообщество не пришло к единому мнению относительно методов разработки AGI. Например, исследователь Питер Восс утверждает, что такая система должна быть способна к обучению без ограничений и иметь высокий уровень самоорганизации. В свою очередь, различные научные подходы предлагают различные пути реализации AGI, от символического метода, основывающегося на абстрактном мышлении, до универсальных математических моделей интеллекта.
По оценкам аналитической компании Gartner, в 2024 году AGI все еще находится на начальной стадии своего развития, и потребуется как минимум десять лет для того, чтобы технология достигла зрелости. Однако, несмотря на это, такие эксперты, как Илон Маск и Сэм Альтман, убеждены, что создание AGI возможно уже к 2025–2026 годам. Некоторые считают, что текущие модели, такие как GPT-4, могут быть первыми прототипами AGI, хотя многие ученые с этим не согласны.
Опасности и риски создания AGI
Создание AGI вызывает серьезные опасения у многих ученых и специалистов. В 2014 году известный физик Стивен Хокинг предупреждал, что полноценный искусственный интеллект может представлять угрозу для человечества. Он предсказывал, что такие системы смогут развиваться гораздо быстрее людей, и, в конечном итоге, конкурировать с ними станет невозможным.
Еще одной серьезной угрозой является возможное создание искусственного суперинтеллекта, который мог бы превзойти человеческий разум и стать неконтролируемым. Это представляет собой риск для безопасности на глобальном уровне. В 2023 году Джеффри Хинтон, один из ведущих специалистов в области ИИ, ушел из Google, чтобы публично заявить о своих опасениях по поводу быстрого развития технологий. Он полагает, что в ближайшие пять лет искусственный интеллект может превзойти человеческий, а языковые модели уже показывают признаки зачатков мышления.
Далее, специалисты отмечают, что быстрый прогресс в области ИИ может привести к росту дезинформации, сокращению рабочих мест и созданию автономного оружия, что в свою очередь повлечет за собой серьезные последствия для глобальной безопасности. В связи с этим, многие эксперты считают, что необходимо сдержанное и осторожное развитие AGI, чтобы минимизировать возможные риски и избежать непредсказуемых последствий в будущем.