В США двум юристам грозит наказание за использование искусственного интеллекта ChatGPT при подготовке иска, передает Tengrinews.kz со ссылкой на CTV News.
В США двум юристам грозит наказание за использование искусственного интеллекта ChatGPT при подготовке иска, передает Tengrinews.kz со ссылкой на CTV News.
Стивен Шварц и Питер Лодука, представлявшие интересы пассажира, пострадавшего во время авиаперелета, решили использовать ChatGPT для поиска аналогичных судебных процессов в целях поддержки своего дела. Однако оказалось, что ChatGPT предоставил им информацию о вымышленных прецедентах, которых на самом деле не существовало.
Шварц объяснил, что использовал чат-бот, когда искал судебные прецеденты, подтверждающие иск клиента против колумбийской авиакомпании Avianca за травму, полученную во время полета в 2019 году. Так, ChatGPT предложил несколько дел, связанных с авиационными происшествиями, которые Шварц не смог найти обычными методами, используемыми в его юридической фирме. Проблема заключалась в том, что некоторые из этих случаев не были реальными или касались несуществующих авиакомпаний.
"Я действовал в заблуждении, что этот сайт получает эти случаи из какого-то источника, к которому у меня нет доступа. Я потерпел неудачу в проведении последующих исследований, чтобы убедиться в правильности ссылок", - заявил Шварц окружному судье США Кевину Кастелу.
Шварц не предполагал, что искусственный интеллект способен выдумывать судебные процессы. Адвокат признал свою ошибку и извинился, заявив, что он "пострадал в личном и профессиональном плане". Он также сообщил, что юридическая фирма, в которой он работает, приняла дополнительные меры, чтобы предотвратить повторение подобных инцидентов.
Питер Лодука также признал, что полностью доверял своему коллеге и не проверял информацию, полученную от него. Оба адвоката вызвали негодование у судьи, который выразил разочарование их работой. Судья отметил, что адвокаты не попытались своевременно исправить иск, убрав ссылки на несуществующие прецеденты. В марте представители авиакомпании-ответчика сообщили Шварцу и Лодуке, что их иск содержит вымысел. Адвокаты также не заметили явных несоответствий в иске, созданном с помощью ChatGPT, которые судья назвал "юридической чепухой".
Судья прокомментировал этот инцидент как первый задокументированный случай потенциального профессионального нарушения, связанного с использованием генеративного искусственного интеллекта. Специалист по цифровой безопасности Дэниел Шин отметил, что этот случай ярко демонстрирует опасность использования перспективных технологий искусственного интеллекта без должного понимания связанных с ними рисков.
В ближайшее время судья определит, какую ответственность понесут юристы, положившиеся на ChatGPT.
Ранее чат-бот ChatGPT успешно сдал экзамены в двух вузах США.