Создатели фундаментального метода обучения ИИ обеспокоены тем, что компании мотивированы прибылью, а не безопасностью.
Два новаторских ученых, которые получили премию Тьюринга в этом году, Эндрю Барто и Ричард Саттон, выразили серьезные опасения по поводу стремительной коммерциализации технологий искусственного интеллекта. Ученые, получившие награду за разработку фундаментального методов обучения ИИ, подчеркнули, что компании, занимающиеся ИИ, часто ставят прибыль выше безопасности, что может привести к непредсказуемым последствиям для общества.
Эндрю Барто, исследователь Массачусетского университета, и Ричард Саттон, бывший исследователь DeepMind, сравнили текущую практику выпуска ИИ-продуктов с «построением моста и тестированием его путем использования людьми». По их словам, отсутствие тщательного тестирования и гарантий безопасности перед выпуском программного обеспечения миллионам пользователей противоречит принципам ответственной инженерной практики.
«Инженерная практика эволюционировала, чтобы минимизировать негативные последствия технологий, но я не вижу, чтобы это применялось компаниями, которые развиваются», — заявил Барто в интервью The Financial Times.
Метод обучения с подкреплением, за который ученые получили премию, стал основой для многих прорывов в области ИИ, включая такие известные модели, как ChatGPT от OpenAI и AlphaGo от Google. Однако, несмотря на значительные достижения, эксперты продолжают предупреждать о рисках, связанных с неконтролируемым развитием искусственного интеллекта.
Йошуа Бенджио и Джеффри Хинтон, также лауреаты премии Тьюринга и признанные лидеры в области ИИ, ранее критиковали подход компаний к разработке небезопасных систем. В 2023 году группа ведущих исследователей, инженеров и генеральных директоров, включая Сэма Альтмана из OpenAI, также сделало заявление, предупреждая, что «снижение риска вымирания ИИ должно быть глобальным приоритетом».
Барто отметил, что компании, занимающиеся ИИ, часто руководствуются бизнес-интересами, а не стремлением к безопасному и этичному развитию технологий. OpenAI, которая неоднократно заявляла о своей приверженности безопасности ИИ, в декабре 2024 года объявила о планах трансформации в коммерческую компанию, что вызвало новые вопросы о балансе между инновациями и ответственностью.
Ученые призвали к более строгому регулированию и сотрудничеству между исследователями, компаниями и правительствами, чтобы обеспечить безопасное и устойчивое развитие искусственного интеллекта.