С развитием технологий искусственного интеллекта (ИИ) их влияние на общество становится все более заметным. Одним из главных направлений применения ИИ является обеспечение безопасности и предотвращение преступлений. Ученые из Южной Кореи разработали нейросеть Dejaview, которая может предсказывать преступления с высокой точностью — до 82%. Эта инновация привлекла внимание общественности и экспертов, однако обсуждение вокруг ее применения не обходит стороной и негативные аспекты. Как и в любом вопросе, здесь есть свои плюсы и минусы, что порождает активные дебаты. Об этом сообщает comandir.com
Как нейросети меняют подход к безопасности
Модель Dejaview, разработанная в Корейском научно-исследовательском институте электроники и телекоммуникаций (ETRI), направлена на улучшение методов предотвращения преступности. Это система, которая анализирует поведение людей в общественных местах через видеозаписи, сравнивая его с известными паттернами преступной активности. Она не просто фиксирует подозрительное поведение, но и предсказывает потенциальный рост преступности в определенных зонах.
Система обладает уникальной возможностью анализа индивидуальных поведенческих паттернов, что может помочь в профилактике рецидивов среди тех, кто уже имел проблемы с законом. Это создает возможности для более эффективного контроля за правонарушителями и может привести к снижению уровня повторных преступлений.
Однако эксперты отмечают и значительные ограничения, связанные с этой технологией. Вопросы конфиденциальности и защиты прав человека становятся важными, поскольку в России, как и в других странах, отсутствует четкая правовая база для таких систем. Специалист в области машинного обучения Анастасия Перкова указывает на необходимость создания нормативной базы, чтобы обеспечить корректное использование персональных данных. Это создает неопределенность в правовом регулировании, так как ИИ может взаимодействовать с чувствительной информацией.
Также существует этическая дилемма: как система будет определять асоциальное поведение? Например, синдром Туретта может быть неверно интерпретирован как ненормативное поведение, что приведет к ошибочному классифицированию действия как правонарушения. Директор по управлению сервисами Angara Security Павел Покровский подчеркивает, что нейросети могут неверно воспринимать такие особенности как угрозу, что создает дополнительные риски.
Вызовы безопасности и кибератак
Технологии на основе искусственного интеллекта продолжают активно интегрироваться в повседневную жизнь, несмотря на ряд вызовов. В России наблюдается рост числа систем распознавания лиц в общественных местах. Сергей Голицын, руководитель Т1 ИИ, подчеркивает, что эти системы не только распознают лица, но и помогают выявлять потенциальные угрозы, что делает их важными для общественной безопасности. Тем не менее, для полноценного использования таких технологий важно соблюдение законодательства о персональных данных и подтвержденная эффективность данных систем.
С запуском коммерческой версии Dejaview, ожидаемым в конце 2025 года, можно предположить, что системы распознавания лиц будут иметь значительное влияние на правоохранительные органы по всему миру. Однако будущее этих технологий зависит от того, как будут решены ключевые вопросы конфиденциальности, точности прогнозов и безопасности данных.