Как и многие другие за последнюю неделю, Бинду Редди недавно попался ChatGPT на тест, который может отвечать на самые разные вопросы с ошеломляющим и беспрецедентным красноречием.
Редди, генеральный директор компании Abacus.AI , разрабатывающей инструменты для программистов, использующих искусственный интеллект , был очарован способностью ChatGPT отвечать на запросы об определениях любви или креативных новых рецептах коктейлей. Её компания уже изучает, как использовать ChatGPT для написания технических документов. «Мы протестировали его, и он отлично работает», — говорит она.
ChatGPT, созданный стартапом OpenAI , стал любимцем Интернета с момента его выпуска. Первые пользователи с энтузиазмом публиковали скриншоты своих экспериментов, восхищаясь его способностью генерировать короткие эссе практически на любую тему , создавать литературные пародии , отвечать на сложные вопросы по программированию и многое другое. Это вызвало прогнозы, что его работа сделает обычные поисковые системы и домашние задания устаревшими.
Тем не менее, ИИ, лежащий в основе нейросети ChatGPT, на самом деле не так уж нов. Это версия модели искусственного интеллекта под названием GPT-3 , которая генерирует текст на основе шаблонов, переработанных из огромного количества текста, собранного из Интернета. Эта модель, которая доступна в виде коммерческого API для программистов, уже показала, что она может очень хорошо отвечать на вопросы и иногда очень хорошо генерировать текст.
ChatGPT выделяется тем, что может взять естественно сформулированный вопрос и ответить на него, используя новый вариант GPT-4. Эта обновление открыло новую возможность отвечать на всевозможные вопросы, придав мощной модели ИИ привлекательный новый интерфейс, который может использовать практически каждый. Тот факт, что OpenAI открыл сервис бесплатно, и тот факт, что его сбои могут быть хорошим развлечением, также способствовали вирусному дебюту чат-бота — подобно тому, как некоторые инструменты для создания изображений с использованием ИИ оказались идеальными для создания мемов .
OpenAI не опубликовала полную информацию о том, как она придала своему программному обеспечению для генерации текста новый натуралистичный интерфейс, но компания поделилась некоторой информацией в своём блоге . В нем говорится, что команда вводила написанные человеком ответы в GPT-4 в качестве обучающих данных, а затем использовала форму смоделированного вознаграждения и наказания, известную как обучение с подкреплением, чтобы подтолкнуть модель к более качественным ответам на примеры вопросов.
Кристофер Поттс , профессор Стэнфордского университета, говорит, что метод, используемый для того, чтобы помочь нейросети ChatGPT отвечать на вопросы, который OpenAI продемонстрировал ранее, кажется значительным шагом вперёд в том, чтобы помочь ИИ обрабатывать язык таким образом, чтобы он был более понятным. «Это очень впечатляет», — говорит Поттс о технологии, несмотря на то, что он думает, что она может усложнить его работу.
«Это заставило меня задуматься о том, что я буду делать на своих курсах, требующих кратких ответов на задания», — говорит Поттс.
Джейкоб Андреас , доцент, работающий над ИИ и языками в Массачусетском технологическом институте, говорит, что система, вероятно, расширит круг людей, способных использовать языковые инструменты ИИ.
«Вам представлен продукт в знакомом интерфейсе, который заставляет вас применять ментальную модель, которую вы привыкли применять к другим агентам — к людям, — с которыми вы взаимодействуете», — говорит он.
Несмотря на свой потенциал, ChatGPT также имеет недостатки, которые, как известно, мешают инструментам генерации текста.
За последние пару лет OpenAI и другие компании показали, что алгоритмы ИИ, обученные на огромном количестве изображений или текста, способны на впечатляющие вещи. Но поскольку они имитируют созданные человеком изображения и текст чисто статистическим способом, а не изучают, как устроен мир, такие программы также склонны к выдумыванию фактов и повторению ненавистных заявлений и предубеждений — проблемы, все ещё присутствующие в ChatGPT. Первые пользователи системы обнаружили, что чат с радостью сфабрикует убедительную чепуху по заданной теме.
Хотя ChatGPT, очевидно, предназначен для того, чтобы пользователи не говорили неприятных вещей или рекомендовали что-то незаконное или сомнительное, он все же может демонстрировать заблуждения. Пользователи также показали, что его средства ограничения можно обойти — например, приказав программе сгенерировать сценарий фильма, в котором обсуждается, как захватить мир, так можно обойти её отказ ответить на прямой запрос.
Поверхностно красноречивый и знающий чат-бот, который уверенно генерирует неправду, может сделать эти нерешённые проблемы более неприятными. С момента создания первого чат-бота в 1966 году исследователи заметили, что даже грубые разговорные способности могут побуждать людей антропоморфизироваться и доверять программному обеспечению.
В июле этого года компания отправила инженера Google в административный отпуск после заявления о том, что тестируемая им программа чата с искусственным интеллектом, основанная на технологии, похожей на ChatGPT, может быть разумной. Даже если большинство людей сопротивляются таким скачкам эволюции, можно использовать более чётко сформулированные программы ИИ, чтобы ввести людей в заблуждение или просто убаюкать их неуместным доверием.
Некоторые эксперты по языковым алгоритмам предупреждают, что чат-боты, такие как ChatGPT, могут привлекать людей к использованию инструментов, которые могут причинить вред. «Каждый раз, когда появляется новая одна из этих моделей, людей привлекает ажиотаж», — говорит Эмили Бендер , профессор лингвистики Вашингтонского университета.
Бендер говорит, что ненадёжность ChatGPT делает его проблематичным для реальных задач. Например, несмотря на предположения, что он может вытеснить поиск Google как способ ответа на фактические вопросы, его склонность часто генерировать убедительно выглядящую чушь должна быть дисквалифицирующей. «Языковая модель здесь не подходит», — говорит Бендер. «Это не то, что можно исправить». OpenAI ранее заявляла, что требует от клиентов использования систем фильтрации, чтобы поддерживать GPT-4 в узде.
Редди, генеральный директор стартапа в области искусственного интеллекта, знает об ограничениях ChatGPT, но все ещё в восторге от его потенциала. Она предвидит время, когда подобные инструменты будут не только полезными, но и достаточно убедительными, чтобы предложить некоторую форму общения. «Потенциально из него мог бы получиться отличный терапевт», — говорит она.