Консорциум исследований безопасности технологий искусственного интеллекта
Проекты
  • Рабочие группы
    • РГ-1
    • РГ-2
    • РГ-3
    • РГ-4
Информация
  • О Консорциуме
  • Участники
  • Реквизиты
  • Документы
Участники
Пресс-центр
  • Наша деятельность
  • Отраслевые новости
Контакты
    Консорциум исследований безопасности технологий искусственного интеллекта
    Проекты
    • Рабочие группы
      • РГ-1
      • РГ-2
      • РГ-3
      • РГ-4
    Информация
    • О Консорциуме
    • Участники
    • Реквизиты
    • Документы
    Участники
    Пресс-центр
    • Наша деятельность
    • Отраслевые новости
    Контакты
      Консорциум исследований безопасности технологий искусственного интеллекта
      0
      Консорциум исследований безопасности технологий искусственного интеллекта
      • Проекты
        • Назад
        • Проекты
        • Рабочие группы
          • Назад
          • Рабочие группы
          • РГ-1
          • РГ-2
          • РГ-3
          • РГ-4
      • Информация
        • Назад
        • Информация
        • О Консорциуме
        • Участники
        • Реквизиты
        • Документы
      • Участники
      • Пресс-центр
        • Назад
        • Пресс-центр
        • Наша деятельность
        • Отраслевые новости
      • Контакты
      • Кабинет
      • info@trust-ai.ru
      Главная
      Новости
      Отраслевые новости
      Лауреаты премии Тьюринга предупреждают об опасностях ИИ

      Лауреаты премии Тьюринга предупреждают об опасностях ИИ

      Отраслевые новости
      Создатели фундаментального метода обучения ИИ обеспокоены тем, что компании мотивированы прибылью, а не безопасностью.

      Два новаторских ученых, которые получили премию Тьюринга в этом году, Эндрю Барто и Ричард Саттон, выразили серьезные опасения по поводу стремительной коммерциализации технологий искусственного интеллекта. Ученые, получившие награду за разработку фундаментального методов обучения ИИ, подчеркнули, что компании, занимающиеся ИИ, часто ставят прибыль выше безопасности, что может привести к непредсказуемым последствиям для общества. 

      Эндрю Барто, исследователь Массачусетского университета, и Ричард Саттон, бывший исследователь DeepMind, сравнили текущую практику выпуска ИИ-продуктов с «построением моста и тестированием его путем использования людьми». По их словам, отсутствие тщательного тестирования и гарантий безопасности перед выпуском программного обеспечения миллионам пользователей противоречит принципам ответственной инженерной практики.

      «Инженерная практика эволюционировала, чтобы минимизировать негативные последствия технологий, но я не вижу, чтобы это применялось компаниями, которые развиваются», — заявил Барто в интервью The Financial Times. 

      Метод обучения с подкреплением, за который ученые получили премию, стал основой для многих прорывов в области ИИ, включая такие известные модели, как ChatGPT от OpenAI и AlphaGo от Google. Однако, несмотря на значительные достижения, эксперты продолжают предупреждать о рисках, связанных с неконтролируемым развитием искусственного интеллекта. 

      Йошуа Бенджио и Джеффри Хинтон, также лауреаты премии Тьюринга и признанные лидеры в области ИИ, ранее критиковали подход компаний к разработке небезопасных систем. В 2023 году группа ведущих исследователей, инженеров и генеральных директоров, включая Сэма Альтмана из OpenAI, также сделало заявление, предупреждая, что «снижение риска вымирания ИИ должно быть глобальным приоритетом». 

      Барто отметил, что компании, занимающиеся ИИ, часто руководствуются бизнес-интересами, а не стремлением к безопасному и этичному развитию технологий. OpenAI, которая неоднократно заявляла о своей приверженности безопасности ИИ, в декабре 2024 года объявила о планах трансформации в коммерческую компанию, что вызвало новые вопросы о балансе между инновациями и ответственностью. 
      Ученые призвали к более строгому регулированию и сотрудничеству между исследователями, компаниями и правительствами, чтобы обеспечить безопасное и устойчивое развитие искусственного интеллекта. 

      https://www.theverge.com/news/624485/turing-award-andrew-barto-richard-sutton-ai-dangers
      Назад к списку
      • Наша деятельность
      • Отраслевые новости
      Проекты
      Консорциум
      Контакты
      Контакты
      info@trust-ai.ru
      127273, Москва г, Отрадная ул., дом № 2Б, строение 1, этаж 9, комн.40
      © 2025 Консорциум исследований безопасности технологий искусственного интеллекта
      Политика конфиденциальности
      Карта сайта