banner

Блог

Jun 29, 2023

Инструменты искусственного интеллекта многое придумывают, и это огромная проблема

Прежде чем искусственный интеллект сможет захватить мир, ему необходимо решить одну проблему. Боты галлюцинируют.

Инструменты на базе искусственного интеллекта, такие как ChatGPT, загипнотизировали нас своей способностью выдавать авторитетные, человечные ответы на, казалось бы, любое приглашение. Но по мере того, как все больше людей обращаются к этой модной технологии для таких вещей, как помощь в выполнении домашних заданий, исследование рабочего места или справка о здоровье, одна из ее самых больших ловушек становится все более очевидной: модели ИИ часто просто выдумывают.

Исследователи стали называть эту тенденцию моделей ИИ извергать неточную информацию «галлюцинациями» или даже «конфабуляциями», как сказал в твиттере руководитель ИИ компании Meta. Тем временем некоторые пользователи социальных сетей просто называют чат-ботов «патологическими лжецами».

Но все эти дескрипторы проистекают из нашей слишком человеческой склонности антропоморфизировать действия машин, по мнению Суреша Венкатасубраманиана, профессора Университета Брауна, который был соавтором проекта Белого дома по Биллю о правах ИИ.

Реальность, по словам Венкатасубраманиана, такова, что большие языковые модели — технология, лежащая в основе инструментов искусственного интеллекта, таких как ChatGPT — просто обучены «выдавать правдоподобный звучный ответ» на запросы пользователя. «Так что в этом смысле любой правдоподобно звучащий ответ, будь то точный, основанный на фактах, придуманный или нет, является разумным ответом, и именно это он и дает», — сказал он. «Там нет познания истины».

Исследователь искусственного интеллекта сказал, что лучшей поведенческой аналогией, чем галлюцинации или ложь, которая несет в себе коннотацию чего-то неправильного или злонамеренного, было бы сравнение этих компьютерных результатов с тем, как его маленький сын рассказывал истории в четыре года. «Вам нужно только сказать: «А потом что произошло?» и он просто продолжит писать больше историй», — сказал Венкатасубраманиан. «И он просто продолжал и продолжал».

Компании, создающие чат-боты с искусственным интеллектом, установили некоторые защитные меры, направленные на предотвращение худших из этих галлюцинаций. Но, несмотря на глобальную шумиху вокруг генеративного ИИ, многие специалисты в этой области по-прежнему сомневаются в том, являются ли галлюцинации чат-ботов вообще решаемой проблемой.

Проще говоря, галлюцинация означает, что модель ИИ «начинает выдумывать вещи — вещи, которые не соответствуют реальности», по словам Джевина Уэста, профессора Вашингтонского университета и соучредителя его Центра исследований. Информированная общественность.

«Но он делает это с чистой уверенностью, — добавил Уэст, — и делает это с той же уверенностью, как если бы вы задали очень простой вопрос вроде: «Какова столица Соединенных Штатов?»

Это означает, что пользователям может быть трудно понять, что правда, а что нет, если они спрашивают чат-бота о чем-то, на что еще не знают ответа, сказал Уэст.

Ряд громких галлюцинаций, связанных с инструментами ИИ, уже попал в заголовки газет. Когда Google впервые представил демо-версию Bard, своего долгожданного конкурента ChatGPT, инструмент публично дал неверный ответ на вопрос о новых открытиях, сделанных космическим телескопом Джеймса Уэбба. (Тогдашний представитель Google сообщил CNN, что инцидент «подчеркивает важность тщательного процесса тестирования», и сказал, что компания работает над тем, чтобы «убедиться, что ответы Барда соответствуют высоким стандартам качества, безопасности и обоснованности в реальной информации». .»)

Опытный юрист из Нью-Йорка также попал в неприятную ситуацию, когда использовал ChatGPT для юридических исследований и представил резюме, включающее шесть «фиктивных» дел, которые чат-бот, по-видимому, просто выдумал. Новостной ресурс CNET также был вынужден внести исправления после того, как статья, созданная с помощью инструмента искусственного интеллекта, в конечном итоге содержала крайне неточные советы по личным финансам, когда его попросили объяснить, как работают сложные проценты.

Однако борьба с галлюцинациями ИИ может ограничить способность инструментов ИИ помогать людям с более творческими начинаниями — например, пользователям, которые просят ChatGPT писать стихи или тексты песен.

ДЕЛИТЬСЯ