Одним із перших, хто ввів таку заборону, став федеральний суддя Брантлі Старр із Техасу (США). Йому набридло, що нейромережі постійно вигадують цитати, нормативні акти тощо, а недбалі юристи навіть не вдаються до мінімальної перевірки правдивості інформації, повідомляє businessua.com.
Надалі всі адвокати, які виступають у суді, повинні подати до канцелярії сертифікат, який засвідчує, що жодна частина клопотання не була підготовлена штучним інтелектом (наприклад, ChatGPT, Harvey. AI або Google Bard). Також суддя Старр зобов’язав живих фахівців перевіряти всі юридичні бази даних, створені за допомогою ШІ.
Федеральний суддя Техасу додав вимогу — кожен адвокат, який з’являється у його суді, повинен засвідчити, що «жодна частина документів не була складена генеративним штучним інтелектом, а якщо і була, то вона піддалася перевірці від живого компетентного спеціаліста».
Тепер до адвокатських свідчень також додається форма для підписання юристами, в якій зазначається, що «цитати, посилання, перефразовані твердження та правовий аналіз підпадають під заборону використання ШІ».
Хоча це поки що лише поодинокий прецедент, передбачається, що й інші судді дотримуватимуться схожих принципів.
Не забудьте підписатись на наш телеграм-канал. Там ще більше оперативної інформації!
Мінцифра презентувала перший в Україні узагальнений словник термінів у сфері штучного інтелекту. У ньому зібрано 106 найпопулярніших слів і словосполучень,...
Німеччина розпочинає поставки Україні 4000 БПЛА "Mini-Taurus" зі штучним інтелектом. Дрони здатні протистояти російським GPS-перешкодам та можуть атакувати важливі військові...
Вчені з Китайської академії наук та університету Рейхмана в Ізраїлі провели дослідження згідно з яким швидкий розвиток штучного інтелекту (ШІ)...
Дослідники виявили, що ШІ дає шкідливі медичні поради і може залікувати до смерті....
Від початку 2024 року заблоковано 20 кампаній поширення фейкового політичного контенту, створеного інструментами ШІ компанії OpenAI, розробника чатбота ChatGPT....