Высокий суд Англии и Уэльса призвал адвокатов строже контролировать использование искусственного интеллекта в работе после нескольких инцидентов с ложными судебными прецедентами, сгенерированными нейросетями.
Судья Виктория Шарп в своем постановлении заявила, что генеративные ИИ-инструменты, такие как ChatGPT, «не способны проводить надежные юридические исследования».
Два резонансных дела
1. В одном из случаев адвокат, представлявший клиента в иске против банков, привел 45 ссылок на прецеденты, из которых 18 оказались вымышленными, а остальные — не соответствовали контексту.
2. В другом деле юрист, защищавший выселенного из дома жителя Лондона, сослался на пять несуществующих дел. Хотя он отрицал использование ИИ, суд предположил, что ложные данные могли быть взяты из автоматически сгенерированных резюме в поисковиках.
Хотя в этих случаях суд не стал возбуждать дела о неуважении к суду, Шарп предупредила: «Это не прецедент». В будущем нарушителям грозят штрафы, компенсация издержек и даже уголовная ответственность.
Решение суда направлено в Совет адвокатов и Юридическое общество для усиления контроля за использованием ИИ в профессии.
«Адвокаты, игнорирующие свои обязанности, рискуют столкнуться с суровыми санкциями», — заключила судья.
https://www.judiciary.uk/wp-content/uploads/2025/06/Ayinde-v-London-Borough-of-Haringey-and-Al-Harou...
https://techcrunch.com/2025/06/07/lawyers-could-face-severe-penalties-for-fake-ai-generated-citation...
Судья Виктория Шарп в своем постановлении заявила, что генеративные ИИ-инструменты, такие как ChatGPT, «не способны проводить надежные юридические исследования».
«Эти системы могут выдавать внешне логичные и правдоподобные ответы, которые на деле оказываются полностью ошибочными, — отметила Шарп. — ИИ может уверенно утверждать ложные факты, что создает серьезные риски для судебных процессов».Суд подчеркнул, что адвокаты обязаны проверять все данные, полученные с помощью ИИ, по авторитетным источникам перед использованием в делах. Шарп также указала на рост числа случаев, когда юристы (включая представителей крупных ИИ-компаний) ссылались на несуществующие судебные решения.
Два резонансных дела
1. В одном из случаев адвокат, представлявший клиента в иске против банков, привел 45 ссылок на прецеденты, из которых 18 оказались вымышленными, а остальные — не соответствовали контексту.
2. В другом деле юрист, защищавший выселенного из дома жителя Лондона, сослался на пять несуществующих дел. Хотя он отрицал использование ИИ, суд предположил, что ложные данные могли быть взяты из автоматически сгенерированных резюме в поисковиках.
Хотя в этих случаях суд не стал возбуждать дела о неуважении к суду, Шарп предупредила: «Это не прецедент». В будущем нарушителям грозят штрафы, компенсация издержек и даже уголовная ответственность.
Решение суда направлено в Совет адвокатов и Юридическое общество для усиления контроля за использованием ИИ в профессии.
«Адвокаты, игнорирующие свои обязанности, рискуют столкнуться с суровыми санкциями», — заключила судья.
https://www.judiciary.uk/wp-content/uploads/2025/06/Ayinde-v-London-Borough-of-Haringey-and-Al-Harou...
https://techcrunch.com/2025/06/07/lawyers-could-face-severe-penalties-for-fake-ai-generated-citation...
