Нейросети и искусственный интеллект (ИИ) наделали много шума и даже смогли попасть в научный рейтинг, в котором обычно отмечают только людей. Технология ознаменовала собой начало революции генеративного ИИ. И пути назад уже нет. Почему — объясняется в статье Ричарда ван Нордена и Ричарда Вебба, размещенной на портале «ИноСМИ».
Гордое детище рук человеческих, генеративный искусственный интеллект — это поразительная имитация разума самого человека. Она представляет собой потенциально новую эру в исследованиях, но вместе с тем несет в себе и высокие риски.
Искусственный интеллект выступает в роли соавтора научных работ — порой тайно. За его плечами составление текстового сопровождения для презентаций, заявок на гранты и программ учебных занятий, написание компьютерного кода. Он побывал даже собеседником ученых для обсуждения их идей. Он придумывал ссылки, подменял факты и разжигал ненависть. Но с наибольшим успехом он покорял умы людей: он был послушным, увлекательным, развлекающим и даже пугающим.
ChatGPT бывал таким, каким желали видеть его собеседники, а иногда и противоположно иным.
Зачем включать компьютерную программу в список личностей, определивших лицо науки в 2023 году? ChatGPT — это не человек. Тем не менее во многих отношениях эта программа на протяжении последнего года оказывала глубокое и масштабное влияние на науку.
Единственная задача ChatGPT —
правдоподобно продолжать диалоги по лекалам образов, которыми он был обучен. Но при этом он и прочие генеративные программы искусственного интеллекта меняют подход к работе некоторых ученых и их методы исследований. Расцвет этих технологий также сделал снова актуальными множество дискуссий. Например, о том, где следует искать предел возможностей ИИ.
Или о природе человеческого интеллекта и о том, как лучше всего регулировать взаимодействие между ним и машинным сознанием. Именно поэтому в 2023 году в рейтинг
Nature’s 10 пополнила нечеловеческая сущность.
Некоторым ученым уже давно известно о потенциале, который имеют большие языковые модели (БЯМ). Но для многих именно появление ChatGPT в качестве бесплатного собеседника в ноябре 2022 года стало возможностью быстро узнать способности и превратности этой технологии. Программа была создана исследователями из
OpenAI в Сан-Франциско, Калифорния; среди них был Илья Суцкевер (Ilya Sutskever), чье имя также можно найти в десятке Nature’s за 2023 год.
Система ChatGPT построена на использовании нейронной сети с сотнями миллиардов параметров, которая была обучена на циклопическом онлайн-корпусе книг и документов, стоимость которого оценивается в десятки миллионов долларов. Кроме того, к редактированию и оценке ответов бота было привлечено множество дополнительных работников. Это оказало еще большее влияние на его конечное формирование. В 2023 году OpenAI усовершенствовала базовую БЯМ ChatGPT и подключила его к другим программам, чтобы он мог принимать и создавать изображения, а также оперировать математическими и кодовыми программами. Другие компании в отрасли поспешно начали создавать конкурентов.
«Для некоторых исследователей эти приложения уже стали бесценными помощниками в их лабораторной деятельности: они помогают обобщать данные или писать документы, совершенствовать работу ПО и писать программные коды. ChatGPT и сопутствующее программное обеспечение могут помочь при
мозговом штурме, улучшить алгоритмы научных поисковых систем и выявить пробелы в библиографии», — говорит
Маринка Зитник (Marinka Zitnik). Она занимается созданием искусственного интеллекта для применения его в области медицинских исследований в Гарвардской медицинской школе в Бостоне. Модели, обученные на научных данных, могут внести вклад в разработку систем ИИ, способных подсказывать ученым новые пути и направления, в которых нужно вести исследования. Зитник добавляет: «Возможно, они смогут моделировать новые молекулы или поведение клеток».
Но эта технология также и опасна. Автоматизированные собеседники могут использоваться мошенниками и плагиаторами; если их не контролировать, они способны нанести непоправимый вред общему корпусу научных знаний. В интернет уже стала просачиваться информация, которая была создана ИИ и
которую можно считать секретной, а некоторые ученые признавались, что используют ChatGPT для написания статей, умалчивая об этом.
Кроме того, никуда не деваются вопросы ошибок и предвзятости. И более того, они заложены в сам принцип функционирования генеративного ИИ. Большие языковые модели выстраивают модель мира, отображая языковые взаимосвязи, а затем выдают правдоподобные выборки из этого распределения, не имея понятия об оценке истинности или ложности. Это приводит к тому, что программы воспроизводят исторические предрассудки или неточности, которые были получены ими как обучающие данные, а также попросту выдумывают информацию, например
несуществующие научные ссылки.
Эмили Бендер (Emily Bender), специалист по компьютерной лингвистике из Университета Вашингтона в Сиэтле, не видит подходящих способов использовать подобного рода изобретения. Она называет их не иначе как
«синтетическими машинами, выдающими текст». По ее словам, ChatGPT оказывает большое влияние на окружающую среду. Он не чужд предубеждений, которые могут стать источником неприятностей, и способен вводить своих собеседников в заблуждение, заставляя их думать, что ответы бота на деле исходят от человека. Кроме того, против OpenAI был подан иск за кражу данных. Также компанию обвиняли в использовании эксплуатационных методов труда (наем фрилансеров за низкую плату).
Масштаб и сложность систем БЯМ означает, что они по своей сути являются
«черными ящиками». Однако до конца понять, почему они выдают то, что выдают, сложнее, когда информация о кодах, на которых они работают, и данные, на которых они были обучены, нельзя найти в открытом доступе. Например, как в случае с ChatGPT. Использование БЯМ с открытым исходным кодом растет, но пока эти модели менее способны, чем более крупные программы с закрытым кодом.
Некоторые страны создают национальные проекты для исследований ИИ — чтобы ученые, не являющиеся сотрудниками корпораций в этой сфере, могли создавать и изучать большие генеративные ИИ. Однако остается неясным, сможет ли регулирование заставить разработчиков ИИ раскрывать информацию о коде или предусматривать средства безопасности.
Никто не знает, на что еще способны системы, подобные ChatGPT. Вероятно, что их возможности еще ограничены доступностью вычислительных мощностей или новых обучающих данных. Но революция генеративного ИИ уже началась. И пути назад нет.
В иллюстрации использовано изображение автора Palash Jain (CCBY3.0) с сайта https://thenounproject.com/ и фото с сайта https://unsplash.com/