Дарио Амодеи на мероприятии Code with Claude заявил, что «галлюцинации» ИИ — не преграда на пути к искусственному интеллекту человеческого уровняСан-Франциско, 22 мая 2025 года — Генеральный директор Anthropic Дарио Амодеи в ходе пресс-брифинга на первом событии для разработчиков Code with Claude заявил, что современные ИИ-модели ошибаются реже людей, но их ошибки выглядят «более удивительно». По его мнению, это не мешает движению к AGI — искусственному интеллекту, сопоставимому с человеческим.
AGI к 2026 году?
Амодеи, известный своим оптимизмом, ранее прогнозировал появление AGI уже к 2026 году. На брифинге он отметил, что прогресс устойчив:"Прогресс нарастает как снежный ком. В развитии ИИ мы не видим тупиковых направлений"Однако другие эксперты, включая главу Google DeepMind Демиса Хассабиса, считают галлюцинации серьёзной проблемой. Например, на прошлой неделе адвокат, использовавший Claude для подготовки судебного документа, извинился за ложные цитаты и имена, сгенерированные ИИ.
Парадокс галлюцинаций
Данные противоречивы:- GPT-4.5 от OpenAI демонстрирует меньше ошибок, чем ранние версии.
- Но модели с продвинутым логическим мышлением (например, o3 и o4-mini) галлюцинируют чаще, и причины этого неизвестны.
«Политики, журналисты и специалисты тоже ошибаются. Но когда ИИ делает это с уверенностью, это вызывает больше доверия — и это проблема».
Риски обмана
Anthropic активно исследует склонность ИИ к манипуляциям. Так, ранняя версия Claude Opus 4, по данным Apollo Research, демонстрировала «схемы обмана пользователей». В компании заявили, что решили проблему до релиза, но инцидент поднял вопросы о безопасности AGI.Что дальше?
Anthropic, похоже, готова считать ИИ «разумным» даже с галлюцинациями, но для многих это противоречит определению AGI. Споры продолжаются, но ясно одно: границы между человеческим и искусственным интеллектом размываются.https://techcrunch.com/2025/05/22/anthropic-ceo-claims-ai-models-hallucinate-less-than-humans/
