Неожиданные последствия использования ИИ в политике: случай Аляски

Сочетание искусственного интеллекта и разработки политик иногда приводит к непредсказуемым последствиям, как это произошло недавно в Аляске.

По сообщениям, законодатели Аляски использовали сгенерированные ИИ недостоверные цитаты для обоснования предложенной политики о запрете мобильных телефонов в школах. Департамент образования Аляски представил проект политики, содержащий ссылки на научные исследования, которые на самом деле не существовали.

Как это произошло?

Ситуация возникла, когда комиссар образования Аляски, Дина Бишоп, использовала генеративный ИИ для составления политики по мобильным телефонам. Документ, созданный ИИ, содержал якобы научные ссылки, которые не были проверены и не соответствовали действительности, при этом не было указано, что документ подготовлен с помощью ИИ. Некоторые материалы, созданные ИИ, попали в Государственный совет образования и раннего развития Аляски до их проверки, что могло повлиять на обсуждения совета.

Позже Бишоп заявила, что ИИ использовался только для “создания цитат” для первоначального проекта и утверждала, что она исправила ошибки перед встречей, отправив обновленные ссылки членам совета. Однако “галлюцинации” ИИ — выдуманная информация, возникающая, когда ИИ пытается создать правдоподобный, но непроверенный контент, все еще присутствовали в финальном документе, который был проголосован советом.

Риски использования ИИ в политике

Финальное решение, опубликованное на сайте Департамента, предписывает разработать модель политики по ограничению использования мобильных телефонов в школах. К сожалению, в документе были шесть цитат, четыре из которых, казалось, были из уважаемых научных журналов. Однако ссылки были полностью вымышленными, с URL-адресами, ведущими к несоответствующему контенту. Этот инцидент демонстрирует риски использования данных, сгенерированных ИИ, без должной проверки человеком, особенно при принятии политических решений.

Случай Аляски не уникален. Глубокие “галлюцинации” ИИ становятся все более распространенными в различных профессиональных сферах. Например, некоторые юристы столкнулись с последствиями за использование вымышленных цитат дел, созданных ИИ, в суде. Аналогично, академические работы, созданные с помощью ИИ, содержали искаженные данные и фальшивые источники, что вызывает серьезные сомнения в их достоверности.

Уроки для будущего

Зависимость от данных, сгенерированных ИИ, в разработке политик, особенно в образовании, несет значительные риски. Когда политики разрабатываются на основе выдуманной информации, это может привести к неправильному распределению ресурсов и потенциально навредить студентам. Например, политика, ограничивающая использование мобильных телефонов на основе выдуманных данных, может отвлечь внимание от более эффективных, основанных на доказательствах вмешательств, которые действительно могут помочь студентам.

Кроме того, использование непроверенных данных ИИ может подорвать общественное доверие как к процессу принятия решений, так и к самой технологии ИИ. Такие инциденты подчеркивают важность проверки фактов, прозрачности и осторожности при использовании ИИ в чувствительных областях принятия решений, особенно в образовании, где влияние на студентов может быть значительным.

Официальные лица Аляски попытались минимизировать ситуацию, назвав фальшивые цитаты “заполнителями”, предназначенными для последующей коррекции. Однако документ с “заполнителями” все равно был представлен совету и использован в качестве основы для голосования, подчеркивая необходимость строгого контроля при использовании ИИ.

Если вам нужны советы по внедрению ИИ, пишите нам на https://t.me/itinai.

Попробуйте внедрить “Аи Хэлп” https://aihlp.ru/. Это AI ассистенты для бизнеса, которые помогают отвечать на вопросы клиентов и снижать нагрузку на первую линию поддержки пользователей.

Категория:

Новости