Консорциум исследований безопасности технологий искусственного интеллекта
Проекты
  • Рабочие группы
    • РГ-1
    • РГ-2
    • РГ-3
    • РГ-4
Информация
  • О Консорциуме
  • Участники
  • Реквизиты
  • Документы
Участники
Пресс-центр
  • Наша деятельность
  • Отраслевые новости
Контакты
    Консорциум исследований безопасности технологий искусственного интеллекта
    Проекты
    • Рабочие группы
      • РГ-1
      • РГ-2
      • РГ-3
      • РГ-4
    Информация
    • О Консорциуме
    • Участники
    • Реквизиты
    • Документы
    Участники
    Пресс-центр
    • Наша деятельность
    • Отраслевые новости
    Контакты
      Консорциум исследований безопасности технологий искусственного интеллекта
      0
      Консорциум исследований безопасности технологий искусственного интеллекта
      • Проекты
        • Назад
        • Проекты
        • Рабочие группы
          • Назад
          • Рабочие группы
          • РГ-1
          • РГ-2
          • РГ-3
          • РГ-4
      • Информация
        • Назад
        • Информация
        • О Консорциуме
        • Участники
        • Реквизиты
        • Документы
      • Участники
      • Пресс-центр
        • Назад
        • Пресс-центр
        • Наша деятельность
        • Отраслевые новости
      • Контакты
      • Кабинет
      • info@trust-ai.ru
      Главная
      Новости
      Отраслевые новости
      Случайный захват и решение квантовой гравитации: Сэм Альтман о двух сценариях будущего ИИ.

      Случайный захват и решение квантовой гравитации: Сэм Альтман о двух сценариях будущего ИИ.

      Отраслевые новости
      Глава OpenAI Сэм Альтман в ходе выступлений в Берлине высказал два ключевых предупреждения о будущем искусственного интеллекта. Он заявил, что человечество может потерять контроль над ИИ не в результате злого умысла, а «совершенно случайно», и спрогнозировал появление систем, превосходящих человеческие возможности, уже к 2030 году.

      О рисках «случайного захвата»

      В подкасте с главой Axel Springer Матиасом Депфнером (материал публикует BILD) Альтман указал на недооцененный сценарий, при котором люди постепенно начинают полностью полагаться на советы алгоритмов.
      «Это можно осознать, представив, что происходит с ChatGPT прямо сейчас. Сотни миллионов людей общаются с ChatGPT, скоро их будут миллиарды. И люди все больше полагаются на его ответы – при принятии важных решений в жизни, на работе, во всем», – отметил глава OpenAI.
      По его словам, ИИ станет умнее, и его советы будут становиться все более авторитетными. В итоге люди окажутся перед выбором: следовать непонятным, но верным рекомендациям ИИ или проиграть в конкурентной борьбе. Это создаст «петлю обратной связи»: чем больше люди слушают ИИ, тем быстрее он обучается и становится сильнее.
      «Кто вообще тогда контролирует процесс? Получается, что мы делаем то, чего хочет модель», – резюмировал Альтман.

      О сроках превосходства ИИ над человеком

      Отвечая на вопросы в рамках интервью сети Axel Springer Global Reporters, Альтман дал более конкретные временные прогнозы. Он заявил, что искусственный интеллект может превзойти человека уже к 2030 году, то есть в течение ближайших пяти лет.
      По его словам, к этому моменту появятся ИИ, способные делать вещи, которые люди сами не умеют. Системы станут исключительно мощными и выйдут за пределы человеческих возможностей. При этом Альтман ожидает, что в 2026 году темпы прогресса будут не меньше, чем в 2024-2025 годах. Он считает, что ИИ вскоре возьмет на себя 30-40% человеческих задач, но люди останутся в центре событий, сохранив контроль над фокусом и инициативой.

      Новый тест для искусственного интеллекта

      На публичной встрече в издательстве Axel Springer Альтман, в диалоге с физиком Дэвидом Дойчем, предложил новый критерий для проверки достижения искусственного общего интеллекта (AGI). Полушутя он заявил, что таким тестом может стать самостоятельное решение ИИ фундаментальной научной проблемы, например, задачи квантовой гравитации.
      Дойч согласился, что это было бы убедительным доказательством. Этот разговор показывает, как меняются подходы к оценке ИИ: если раньше признаком AGI считалась способность к осмысленному диалогу, то теперь планка поднята до решения сложнейших научных проблем.
      Прогнозы Альтмана перекликаются с мнением других экспертов. Так, 1 сентября глава Сбербанка Герман Греф заявил, что в течение 10 лет может появиться ИИ, способный решить глобальные проблемы человечества, и предсказал начало вытеснения людей из низкоквалифицированных профессий уже через два-три года.
      Темпы развития ИИ действительно впечатляют, и предупреждения одного из главных идеологов этой отрасли заставляют задуматься о том, насколько готово человечество к столь стремительным изменениям.


      https://www.vedomosti.ru/technology/news/2025/10/01/1143511-altman-predupredil
      https://mltimes.ai/glava-openai-ozhidaet-prevoshodstva-ii-nad-chelovekom-cherez-pyat-let/

      Назад к списку
      • Наша деятельность
      • Отраслевые новости
      Проекты
      Консорциум
      Контакты
      Контакты
      info@trust-ai.ru
      127273, Москва г, Отрадная ул., дом № 2Б, строение 1, этаж 9, комн.40
      © 2025 Консорциум исследований безопасности технологий искусственного интеллекта
      Политика конфиденциальности
      Карта сайта