Консорциум исследований безопасности технологий искусственного интеллекта
Проекты
  • Рабочие группы
    • РГ-1
    • РГ-2
    • РГ-3
    • РГ-4
Информация
  • О Консорциуме
  • Участники
  • Реквизиты
  • Документы
Участники
Пресс-центр
  • Наша деятельность
  • Отраслевые новости
Контакты
    Консорциум исследований безопасности технологий искусственного интеллекта
    Проекты
    • Рабочие группы
      • РГ-1
      • РГ-2
      • РГ-3
      • РГ-4
    Информация
    • О Консорциуме
    • Участники
    • Реквизиты
    • Документы
    Участники
    Пресс-центр
    • Наша деятельность
    • Отраслевые новости
    Контакты
      Консорциум исследований безопасности технологий искусственного интеллекта
      0
      Консорциум исследований безопасности технологий искусственного интеллекта
      • Проекты
        • Назад
        • Проекты
        • Рабочие группы
          • Назад
          • Рабочие группы
          • РГ-1
          • РГ-2
          • РГ-3
          • РГ-4
      • Информация
        • Назад
        • Информация
        • О Консорциуме
        • Участники
        • Реквизиты
        • Документы
      • Участники
      • Пресс-центр
        • Назад
        • Пресс-центр
        • Наша деятельность
        • Отраслевые новости
      • Контакты
      • Кабинет
      • info@trust-ai.ru
      Главная
      Новости
      Отраслевые новости
      Галлюцинации ИИ: проблема, которая продолжает беспокоить технологический мир

      Галлюцинации ИИ: проблема, которая продолжает беспокоить технологический мир

      Отраслевые новости
      В эпоху активного развития генеративного искусственного интеллекта (ИИ) одной из самых острых проблем остаются так называемые "галлюцинации" — случаи, когда модели ИИ выдают ложную или недостоверную информацию. Несмотря на значительные успехи в области больших языковых моделей (LLM), такие ошибки продолжают вызывать серьезные опасения у экспертов, особенно в контексте их применения в критически важных сферах, таких как медицина, финансы и кибербезопасность.

      Что такое галлюцинации ИИ?

      Галлюцинации ИИ — это феномен, при котором генеративные модели создают информацию, не соответствующую действительности. Это происходит из-за того, что ИИ предсказывает следующее слово на основе вероятностей, а не на основе точных фактов. В результате модель может "выдумывать" данные, цитаты или даже события, которые никогда не происходили.

      Последние исследования и примеры

      Исследование BBC, проведенное в феврале 2025 года, выявило, что более половины ответов популярных ИИ-помощников, таких как ChatGPT, Copilot, Gemini и Perplexity, содержали существенные ошибки. Например, ChatGPT и Copilot утверждали, что бывший премьер-министр Великобритании Риши Сунак все еще занимает свой пост, а Gemini неправильно интерпретировала рекомендации NHS о вейпинге.
      Другое исследование, проведенное перед выборами в Германии в 2024 году, показало, что модели ИИ часто давали неточные ответы на вопросы, связанные с политикой. Например, Gemini ошибочно подтвердила дату выборов в Саксонии, указав 22 сентября вместо 1 сентября.

      Причины галлюцинаций

      Эксперты выделяют несколько ключевых причин возникновения галлюцинаций:
      1. Некачественные обучающие данные — если данные нерепрезентативны или содержат ошибки, модель может выдавать недостоверную информацию. 
      2. Переобучение — модель запоминает конкретные примеры, но не может обобщать новые данные. 
      3. Сложность интерпретации идиом и сленга — ИИ может неправильно понимать разговорные выражения. 
      4. Состязательные атаки — злоумышленники могут намеренно вводить ИИ в заблуждение с помощью специально crafted-запросов

      Как бороться с галлюцинациями? 

      Для снижения рисков эксперты предлагают следующие меры:
      • Использование проверенных и репрезентативных данных для обучения моделей. 
      • Интеграция внешних баз знаний для проверки фактов.
      • Точная настройка моделей под конкретные задачи.
      • Постоянное тестирование и улучшение систем.
      • Внедрение человеческого контроля для проверки результатов. 

      Будущее ИИ: баланс между точностью и креативностью 

      Полное устранение галлюцинаций может привести к снижению творческого потенциала ИИ, что особенно важно в таких областях, как создание контента, написание сценариев или генерация идей. Поэтому разработчикам необходимо найти баланс между точностью и гибкостью моделей.

      Галлюцинации ИИ остаются серьезной проблемой, но их решение открывает новые возможности для создания более надежных и безопасных систем. В ближайшие годы мы, вероятно, увидим значительные улучшения в этой области, что сделает ИИ еще более полезным инструментом для бизнеса и общества.

      На эту проблему в России обратили внимание научные организации, ВУЗы и компании, активно внедряющие и применяющие ИИ. Более подробнее можно ознакомиться с материалами исследований Научно-технического центра ФГУП «ГРЧЦ» по ссылке https://rdc.grfc.ru/2025/02/ai_answers_problems/
      Назад к списку
      • Наша деятельность
      • Отраслевые новости
      Проекты
      Консорциум
      Контакты
      Контакты
      info@trust-ai.ru
      127273, Москва г, Отрадная ул., дом № 2Б, строение 1, этаж 9, комн.40
      © 2025 Консорциум исследований безопасности технологий искусственного интеллекта
      Политика конфиденциальности
      Карта сайта