Британские судьи могут использование ChatGPT в своей работе

Роботы могут помочь определить вашу юридическую судьбу, если вы окажетесь в британском суде. Во вторник Судебная канцелярия Великобритании выпустила руководство, разрешающее судьям использовать ChatGPT и другие инструменты искусственного интеллекта для написания судебных решений и выполнения ряда других задач.

«Использование искусственного интеллекта («ИИ») в обществе продолжает расти, как и его актуальность для судебной и трибунальной системы. Это руководство – первый шаг в предлагаемом комплексе будущих работ по поддержке судебной системы при взаимодействии с ИИ».
- говорится в заявлении Судебного управления, которое контролирует судей, магистратов и членов трибунальных коллегий в Англии и Уэльсе

Это сдвиг, который может стать неожиданностью для всех, кто следит за тем, как ИИ спотыкается при внедрении в различные правовые системы. В начале этого года два адвоката в Нью-Йорке были оштрафованы на $5000 после того, как они представили юридические документы, написанные ChatGPT, в которых ИИ выдумал несколько вымышленных цитат и ссылок. В октябре осужденный рэпер группы Fugees Праказрел «Прас» Мичел заявил, что его бывший адвокат не справился с задачей, написав заключительный аргумент с помощью ИИ.

Но рассказы о потенциальных опасностях ИИ не остановили юристов и других чиновников от погружения с головой в технологию.

Это особенно верно в Великобритании, где судьи, похоже, в восторге от этой технологии. В сентябре лорд-судья Бирсс из Апелляционного суда Англии и Уэльса использовал ChatGPT для обобщения незнакомых ему правовых теорий и скопировал и вставил результаты в официальное постановление. Бирсс назвал ИИ «очень полезным» инструментом.

Руководство открывает британским судьям путь к экспериментам с этой технологией, хотя Судебная канцелярия предлагает некоторые ограничения для ИИ, признавая его потенциальные подводные камни.

Судебная канцелярия отмечает, что ответы ИИ «могут быть неточными, неполными, вводящими в заблуждение или предвзятыми», и предполагает, что ChatGPT и другие большие языковые модели «являются плохим способом проведения исследований, чтобы найти новую информацию, которую вы не можете проверить». Руководство также рекомендует судьям проверять точность ответов ИИ до того, как они выносят решения, которые могут изменить ход жизни людей. Действительно, хорошая идея.

Руководство также предупреждает о проблемах конфиденциальности, указывая на то, что компании, использующие ИИ, собирают результаты взаимодействия с пользователями. Судебная канцелярия заявила, что судьи должны понимать, что набрать что-то в интерфейсе чатбота – это то же самое, что опубликовать это для всеобщего обозрения.

В целом на 6 страницах руководства приводятся такие основные сведения о технологии, что становится ясно: судебная власть предполагает, что некоторые судьи не имеют никакого представления об искусственном интеллекте.

Сечинов Михаил Эксперт по компьютерному железу

Один из основателей проекта ITShaman.ru. Я люблю компьютерное железо. Люблю Intel, но дома и на работе использую AMD. Из-за этого много экспериментирую и тестирую.

Похожие статьи

Комментарии (0)