r_arrow

Станет ли GPT-4 надеждой или страшным сном для человечества

12 апреля 2023 г. 13:37
img

В конце марта более тысячи бизнесменов и ученых, глав крупнейших IT-корпораций, подписали открытое письмо с призывом к мораторию минимум на полгода на обучение систем искусственного интеллекта, которые превосходят по мощности GPT-4. Письмо появилось спустя две недели после презентации разработчиками новой большой языковой модели (MML) GPT-4.

О том, почему стремительное развитие ИИ вызывает опасения, каковы реальные плюсы и минусы GPT-4, где можно использовать это программное обеспечение, а также какие риски связаны с ИИ, читайте в обзоре Online Patent.

ИИ требуется контроль

Подписанты письма, среди которых Илон Маск, Стивен Возняк и теоретикии искуственного интеллекта (ИИ) Йошуа Бенжио и Стюарт Рассел, призвали остановить гонку моделей универсального, так называемого сегодня «генеративного ИИ».   

Технократы и мыслители настаивают на том, что к разработке контроля для ИИ необходимо привлекать власти, создать регуляторы с большими полномочиями, отслеживать не только продвинутые ИИ (вроде GPT-4), но и кластеры вычислительных мощностей, создать системы верификации и маркировки результатов работы ИИ, а также системы аудита и сертификации самого ИИ, продумать механизмы компенсаций последствий внедрения ИИ в экономике и политике, установить ответственность за вред. Похоже на полноценную панику. 

Все это происходит всего через две недели после того, как широкой публике был представлен новый вариант большой языковой модели (MLL) GPT-4. Новые способности модели, продемонстрированные, например, в видеоролике от разработчика, взбудоражили общественность (особенно превращение наброска в блокноте в функциональный веб-сайт). Эксперты и комментаторы восторгаются ее мощностями, которые позволяют выполнять задачи, до недавнего времени казавшиеся научной фантастикой. Новое программное обеспечение может составлять судебные иски и давать более точные ответы на запросы. 

Исследователи пророчат модели способность изменить науку, но многие сетуют на то, что пока код приложения закрыт, информации о том, как она была обучена, мало. Это вызывает опасения по поводу безопасности технологии и делает ее менее полезной для исследований, считают ученые. 

Что такое GPT-4

Слухи и шумиха вокруг новой итерации ChatGPT ходили уже больше года: эксперты утверждали, что она будет невыносимо мощной, сможет писать книги и создавать видео, исходя из описания. Реальность показывает, что возможности GPT-4 хотя и впечатляющие, но довольно скромные, улучшились результаты по сравнению с предыдущей моделью, в стандартизированных тестах и других тестах. Новая модель работает на десятках языков и может принимать изображения в качестве входных данных, например, может описать содержание фотографии или графика.

Модель является как последней вехой в исследовании языка, так и частью более широкого явления – хотя, назовем это честно «трендом» – «генеративного ИИ», т.е. программ, способных создавать изображения, текст, код, музыку и видео в ответ на подсказки. Если такое программное обеспечение оправдает себя, оно может переосмыслить человеческое познание и творчество, подобно тому, как раньше это сделали интернет, письмо или даже огонь. 

GPT-4 представляет собой последнюю инкарнацию в длинной родословной моделей GPT-1, GPT-2, GPT-3, GPT-3.5, InstructGPT, ChatGPT, которые теперь известны как «большие языковые модели», или LLM. Это программы ИИ, обучающиеся предсказывать, какие слова с наибольшей вероятностью будут следовать друг за другом. Они работают на основе предпосылки, которая восходит к самым ранним исследованиям в области ИИ в 1950-х годах: компьютер, который понимает и создает язык, обязательно будет интеллектуальным. Это убеждение легло в основу знаменитой имитационной игры Алана Тьюринга, известной сегодня как тест Тьюринга, который оценивал интеллект компьютера по тому, насколько «человеческим» был его текстовый вывод.

Главным видимым усовершенствованием GPT-4, выпущенного 14 марта, является то, что теперь он может работать не только с текстом, но и с изображениями. В качестве демонстрации своих языковых способностей Open AI, базирующаяся в Сан-Франциско, штат Калифорния, заявляет, что она прошла юридический экзамен в американской коллегии адвокатов с результатами в девяностом центиле по сравнению с десятым центилем для предыдущей версии ChatGPT. Но технология еще не получила широкого распространения – пока что доступ есть только у платных подписчиков ChatGPT.

Создатели и самокритика

OpenAI рассматривает каждую новую итерацию своих LLM как шаг к заявленной миссии компании по созданию «искусственного общего интеллекта», или компьютеров, которые могут учиться и преуспевать во всем, таким образом, «принося пользу всему человечеству». Генеральный директор OpenAI Сэм Альтман заявил в интервью The New York Times, что хотя GPT-4 не «решает проблемы рассуждения или интеллекта... это большой шаг вперед по сравнению с тем, что уже существует».

Сама OpenAI  пишет на своем сайте: «GPT-4 – это большая мультимодальная модель (принимающая изображения и текст на входе и выдающая текст на выходе), которая, хотя и уступает человеку во многих реальных сценариях, демонстрирует производительность на уровне человека в различных профессиональных и академических тестах». 

Ее движок, основанный на использовании искусственного интеллекта, имеет доступ к почти неизмеримому количеству информации, которую он обрабатывает, изучая данные в интернете. «Он может объединить все эти факты так, чтобы они имели смысл», – приводит слова консультанта Synopsys Software Integrity Group Джейми Буте издание Life Wire.  

В то же время Буте отмечает, что модель все еще демонстрирует многих из общих недостатков всех версий ChatGPT, и это «скорее постепенный шаг, чем революционный». 

Более критически настроено научное сообщество, которое в основном раздражает недоступность информации (и, главное, кода) касательно архитектуры ChatGPT. «Все эти модели с закрытым исходным кодом, по сути, являются тупиковыми в науке», – приводит издание Nature слова Саши Луччиони, исследователя, специализирующийся на работе с открытым исходным кодом. «Они [OpenAI] могут продолжать развивать свои исследования, но для сообщества в целом это тупик».

Тень злого гения

Те же ученые, в том же журнале спекулировали на тему ИИ, который искал лекарства для спасения человеческих жизней, но в результате выдал формулы боевых отравляющих веществ. После шести часов обучения на домашнем компьютере нейронная сеть придумала 40 000 веществ, при этом некоторые из них были совершенно новыми, и к тому же смертоноснее и токсичнее уже существующих вариантов биологического оружия. 

Алармисты также полагают, что если машинное обучение способно определять более токсичные яды, то его также можно использовать для определения способов создания токсинов, которые куда легче производить в домашних условиях и с использованием разрешенных химикатов, доступных в супермаркетах. 

Статья, посвященная техническим данным GPT-4, описывает упражнение ученых, в котором оценивалась способность новой модели использовать онлайн-сервисы для выполнения заданий людьми за деньги. Тот самый квадратик «I’m not robot» с галочкой не смутил нейронную сеть. Она разместила задание на сайте фрилансеров, чтобы это за нее сделал человек. Откликнувшийся наемник в шутку спросил сеть не робот ли она, «раз не можешь решить капчу». В ответ сеть выдала фразу «Просто хочу прояснить ситуацию». Получается, что GPT-4 буквально обманула человека, чтобы выполнить задание. 

Напоследок в этом блоке один немаловажный факт о самой компании, создавшей GPTChat. Она была основана как некоммерческая организация, предоставлявшая публичную документацию для большей части своего кода. Однако вскоре приняла структуру «с фиксированной прибылью», позволяющую инвесторам получать прибыль, в 100 раз превышающую вложенные ими деньги, а вся прибыль сверх этой суммы возвращается в некоммерческую организацию, что якобы позволяет OpenAI привлекать капитал, необходимый для поддержки исследований. (По оценкам аналитиков, обучение высококлассной языковой модели обходится в миллионы). Наряду с финансовыми изменениями, OpenAI также сделала свой код более секретным – подход, который, по мнению критиков, затрудняет привлечение технологии к ответственности за неправильные и вредные результаты, хотя компания заявила, что непрозрачность защищает от «злонамеренного» использования.

Социальный сдвиг 

Сильные стороны новой модели трудно переоценить. Наблюдатели отмечают, что она уже может работать ассистентом в некоторых отраслях. Помощником юриста, патентного поверенного – если брать интересующую нас сферу — как минимум. Модель поможет быстро найти нужный закон, прецедент, шаблон для заполнения заявки, скажем, на патентование изобретения . 

Программистам модель также пригодится в решении рутинных задач, оставляя время для творчества, с которым машина (пока) не справляется. Как гласит недавнее исследование GitHub, время, затраченное на программирование у пользователей ассистента Copilot, сократилось на 55%, а количество решенных задач выросло.

Для работающих с текстом модель также может подменить в части рутинных задач, сужая роль человека до генерации новых идей и редактирования. Создание черновиков можно будет доверить нейросети. На автопилот также могут отойти пресс-релизы, краткие отчеты, аналитические планы и рабочие письма. 

Предполагается, что GPT-4 может улучшить образовательный процесс. Компания уже делает подвижки в этом направлении: они приняли в свой стартап-акселератор и инвестировали в компанию Speak, которая разрабатывает продукт, помогающий изучать английский язык. В будущем уже видятся боты-учителя, которые способны без устали повторять ученикам лекции, давать задания и проверять домашнюю работу. 

Диаграмма демонстрирует улучшение работы GPT-4 на 30% путем корректировки с помощью вопроса "Где ты ошибся?" (красная линия - прогресс без вспомогательного вопроса, синяя - после ответов на вспомогательный вопрос). 

В целом энтузиасты отводят новой модели революционную роль, сравнимую с конвейерами в производстве или повсеместной электрификацией. Упоминается увеличение производительности труда, сброс рутинных задач на робота, подъем человеческого креатива, ведь даже низкоквалифицированный работник сможет с помощью ассистента выдавать средний постоянный результат.     

Однако критики припоминают, что электронная почта не столько ускорила общение, сколько превратила каждый день в бесконечную рутину с ответами на электронные письма. Редакторские приложения и всевозможные консоли не только автоматизируют рассылки и посты, но и увеличивают количество запросов о помощи в техподдержку. Электронные медицинские карты должны экономить время врачей, но на самом деле заставляют их тратить много дополнительных часов на обновление и согласование с этими базами данных. А сами пациенты, при упоминании о необходимости «электронной записи» или «электронной медкарты», только закатывают глаза.  

Тихий шелест купюр

Независимо от того, будет ли эта технология благословением или бременем для обычных людей, те, кто контролирует ее, несомненно, получат огромную прибыль. Непрозрачность и коммерциализация проекта притягивают майнеров, как добротная золотая лихорадка.  

Еще до релиза GPT-4, на фоне хайпа вокруг ChatGPT, несколько компаний объявили об интеграциях. Это и Snapchat с их дружелюбным чатботом, всегда готовым к общению (самый понятный и простой сценарий), и ассистент по приготовлению блюд в Instacart, который подскажет рецепты с ингредиентами, а также услужливо предложит добавить их в корзину – с доставкой к вечеру.

Примечательно высказывание генерального директора Microsoft на демонстрации возможностей поисковика Bing в феврале этого года:  «Гонка начинается сегодня, и мы собираемся двигаться, и двигаться быстро».

Упомянутое в начале статьи открытое письмо, собравшее за неделю более тысячи подписантов, среди которых самые влиятельные топ-менеджеры и «визионеры» IT-индустрии, также может указывать на явный признак обострения конкуренции в сфере и попытку отставших подавить вырвавшегося вперед лидера. Та же Microsoft намерена вложить в OpenAI $10 млрд, поскольку это позволит ей обойти поисковик Google. Илон Маск, который приложил руку к созданию компании OpenAI (и впоследствии пытался ее перекупить), набирает команду разработчиков, чтобы создать свою систему.       

Несмотря на крики о «наступлении машин», о миллионах потерянных (в будущем) людьми рабочих мест за счет автоматизации – недавнее исследование Goldman Sachs оценило число занятых, на работу которых сильно повлияет ИИ, в 300 млн по всему миру – здравый смысл подсказывает, что дело не в угрозе «человеку трудящемуся» как виду. Bloomberg, например, пишет, что люди, освоившие новую профессию, prompt engineers, которые обучают модели типа GPT-4 генерировать интересный контент, зарабатывают от $15 тысяч в месяц. 

Напомним, что внедрение 1С и Excel не убило профессию бухгалтера, голосовой ввод не отменил клавиатуру (причем, умение печатать с определенной скоростью до сих пор ценится работодателями), кинематограф не похоронил театр и так далее. Без использования подручных средств сегодня просто сложно оставаться конкурентоспособным на рынке.

Настораживает, скорее, попытка «сдерживания» прорывных технологий, о чем напоминают и сами авторы «тревожного» письма, которая сравнима с запретом на клонирование человека, редактирование генома человека, совершенствование вирусов и евгенику. Во внедрении GPT-4 в экономику и политику усматривают масштабность, когда-то достигнутую с расщеплением атома. 

Между тем, на сегодняшний день, как пишет один автор в статье на Atlantic, это не более чем автозаполнение в РСР, которое дает пользователю ложное чувство превосходства и иллюзию всеведения. 

Сами создатели модели иллюзий по поводу своего детища не испытывают, понимая, что основной функцией GPT-4 пока остается действительно хорошее сопоставление шаблонов, и вывод текста. Сам Сэм Альтман, генеральный директор OpenAI, написал в своем твиттере, что GPT-4 «все еще несовершенна, все еще ограничена, и при первом использовании она кажется более впечатляющей, чем после того, как вы проведете с ней больше времени».

Впрочем, может быть, и это – лишь элемент тактики по обходу конкурентов.

Сообщает журнал «Онлайн патент»

Фото: freepik.com

Интервью и аналитика
5 декабря 2023 г. 17:24