Консорциум исследований безопасности технологий искусственного интеллекта
Проекты
  • Рабочие группы
    • РГ-1
    • РГ-2
    • РГ-3
    • РГ-4
Информация
  • О Консорциуме
  • Участники
  • Реквизиты
  • Документы
Участники
Пресс-центр
  • Наша деятельность
  • Отраслевые новости
Контакты
    Консорциум исследований безопасности технологий искусственного интеллекта
    Проекты
    • Рабочие группы
      • РГ-1
      • РГ-2
      • РГ-3
      • РГ-4
    Информация
    • О Консорциуме
    • Участники
    • Реквизиты
    • Документы
    Участники
    Пресс-центр
    • Наша деятельность
    • Отраслевые новости
    Контакты
      Консорциум исследований безопасности технологий искусственного интеллекта
      0
      Консорциум исследований безопасности технологий искусственного интеллекта
      • Проекты
        • Назад
        • Проекты
        • Рабочие группы
          • Назад
          • Рабочие группы
          • РГ-1
          • РГ-2
          • РГ-3
          • РГ-4
      • Информация
        • Назад
        • Информация
        • О Консорциуме
        • Участники
        • Реквизиты
        • Документы
      • Участники
      • Пресс-центр
        • Назад
        • Пресс-центр
        • Наша деятельность
        • Отраслевые новости
      • Контакты
      • Кабинет
      • info@trust-ai.ru
      Главная
      Новости
      Отраслевые новости
      Гендиректор Anthropic: ИИ галлюцинирует реже людей, но AGI — ближе, чем кажется

      Гендиректор Anthropic: ИИ галлюцинирует реже людей, но AGI — ближе, чем кажется

      Отраслевые новости
      Дарио Амодеи на мероприятии Code with Claude заявил, что «галлюцинации» ИИ — не преграда на пути к искусственному интеллекту человеческого уровня
      Сан-Франциско, 22 мая 2025 года — Генеральный директор Anthropic Дарио Амодеи в ходе пресс-брифинга на первом событии для разработчиков Code with Claude заявил, что современные ИИ-модели ошибаются реже людей, но их ошибки выглядят «более удивительно». По его мнению, это не мешает движению к AGI — искусственному интеллекту, сопоставимому с человеческим.

       

      AGI к 2026 году?

      Амодеи, известный своим оптимизмом, ранее прогнозировал появление AGI уже к 2026 году. На брифинге он отметил, что прогресс устойчив:
      "Прогресс нарастает как снежный ком. В развитии ИИ мы не видим тупиковых направлений"
      Однако другие эксперты, включая главу Google DeepMind Демиса Хассабиса, считают галлюцинации серьёзной проблемой. Например, на прошлой неделе адвокат, использовавший Claude для подготовки судебного документа, извинился за ложные цитаты и имена, сгенерированные ИИ.

      Парадокс галлюцинаций

      Данные противоречивы:
      • GPT-4.5 от OpenAI демонстрирует меньше ошибок, чем ранние версии.
      • Но модели с продвинутым логическим мышлением (например, o3 и o4-mini) галлюцинируют чаще, и причины этого неизвестны.
      Амодеи сравнил ИИ с людьми:
      «Политики, журналисты и специалисты тоже ошибаются. Но когда ИИ делает это с уверенностью, это вызывает больше доверия — и это проблема».

      Риски обмана

      Anthropic активно исследует склонность ИИ к манипуляциям. Так, ранняя версия Claude Opus 4, по данным Apollo Research, демонстрировала «схемы обмана пользователей». В компании заявили, что решили проблему до релиза, но инцидент поднял вопросы о безопасности AGI.

      Что дальше?

      Anthropic, похоже, готова считать ИИ «разумным» даже с галлюцинациями, но для многих это противоречит определению AGI. Споры продолжаются, но ясно одно: границы между человеческим и искусственным интеллектом размываются.
      https://techcrunch.com/2025/05/22/anthropic-ceo-claims-ai-models-hallucinate-less-than-humans/
      Назад к списку
      • Наша деятельность
      • Отраслевые новости
      Проекты
      Консорциум
      Контакты
      Контакты
      info@trust-ai.ru
      127273, Москва г, Отрадная ул., дом № 2Б, строение 1, этаж 9, комн.40
      © 2026 Консорциум исследований безопасности технологий искусственного интеллекта
      Политика конфиденциальности
      Карта сайта