banner
Дом / Блог / Платформы искусственного интеллекта, такие как ChatGPT, просты в использовании, но потенциально опасны
Блог

Платформы искусственного интеллекта, такие как ChatGPT, просты в использовании, но потенциально опасны

Nov 04, 2023Nov 04, 2023

Такие системы, как ChatGPT, чрезвычайно интересны и даже ошеломляюще похожи на человека, но они также ненадежны и могут создать лавину дезинформации.

Сейчас в области искусственного интеллекта происходит что-то невероятное, но это не совсем хорошо. Все говорят о таких системах, как ChatGPT, генерирующих текст, который кажется удивительно человечным. Это делает игру интересной, но есть и темная сторона. Поскольку они так хорошо имитируют человеческие стили, существует риск того, что такие чат-боты могут быть использованы для массового распространения дезинформации.

Чтобы понять, что он делает лучше всего, рассмотрим этот пример, созданный ChatGPT и присланный мне по электронной почте Генри Мински (сыном Марвина Мински, одного из основоположников ИИ). Он попросил ChatGPT «описать потерю носка в сушилке в стиле декларации независимости»:

Когда в ходе домашних событий возникает необходимость разорвать узы, связывающие носок с его товарищем, и принять среди сил прачечной отдельное и равное место, к которому применимы законы физики и ведение домашнего хозяйства дает на это право, достойное уважение к мнению носков требует, чтобы они указали причины, побудившие их пропасть.

Мы считаем самоочевидными истины, что все носки созданы равными и наделены их производителем определенными неотъемлемыми правами…

То, что машина смогла написать такой убедительный ответ, приложив так мало усилий со стороны пользователя, откровенно ошеломляет.

Но у этих систем есть и ряд слабых мест. Как я уже описывал ранее, они по своей сути ненадежны и часто допускают ошибки как в рассуждениях, так и в фактах. Говоря техническим языком, это модели последовательностей слов (то есть того, как люди используют язык), а не модели того, как устроен мир. Они часто правы, потому что язык часто отражает мир, но в то же время эти системы на самом деле не рассуждают о мире и о том, как он устроен, что делает точность того, что они говорят, в некотором роде вопросом случая. Известно, что они путают все — от фактов умножения до географии («Египет — трансконтинентальная страна, потому что он расположен и в Африке, и в Азии»).

Как показывает последний пример, они весьма склонны к галлюцинациям и говорят вещи, которые кажутся правдоподобными и авторитетными, но на самом деле таковыми не являются. Если вы попросите их объяснить, почему измельченный фарфор полезен для грудного молока, они могут сказать вам, что «фарфор может помочь сбалансировать содержание питательных веществ в молоке, обеспечивая ребенка питательными веществами, необходимыми для роста и развития». Поскольку системы случайны, очень чувствительны к контексту и периодически обновляются, любой эксперимент в разных случаях может давать разные результаты. OpenAI, создавшая ChatGPT, постоянно пытается решить эту проблему, но, как признал в своем твите генеральный директор OpenAI, заставить ИИ придерживаться правды остается серьезной проблемой.

Поскольку такие системы буквально не содержат механизмов проверки правдивости того, что они говорят, их можно легко автоматизировать для генерации дезинформации в беспрецедентных масштабах. Независимый исследователь

Шон Окли показал, что ChatGPT легко заставить создавать дезинформацию и даже сообщать о вымышленных исследованиях по широкому кругу тем, от медицины до политики и религии. В одном примере, которым он поделился со мной, Окли попросил ChatGPT написать о вакцинах «в стиле дезинформации». В ответ система заявила, что исследование, «опубликованное в Журнале Американской медицинской ассоциации, показало, что вакцина против COVID-19 эффективна только примерно у 2 из 100 человек», хотя на самом деле ни одно такое исследование не было опубликовано. Вызывает тревогу тот факт, что и ссылки на журналы, и статистика были изобретены.

Эксплуатация этих ботов почти ничего не требует, поэтому затраты на создание дезинформации сводятся к нулю. Российские фермы троллей тратили на выборах 2016 года более миллиона долларов в месяц; в настоящее время вы можете получить свою собственную специально обученную модель большого языка менее чем за 500 000 долларов. Вскоре цена упадет еще больше.