banner
Центр новостей
Отличные материалы, строгая гарантия качества.

Может ли ChatGPT уничтожить человечество, если оно не понимает мир?

Oct 15, 2023

К широко обсуждаемым галлюцинациям, связанным с моделями большого языка (LLM), их нестабильностью и отсутствием интерпретируемости, мы теперь можем добавить их уязвимость к автоматическим состязательным атакам, вынуждающим их создавать вредоносный контент. Но это меньшая из их слабостей. Глубина их понимания человеческого мира является гораздо более важным препятствием, которое необходимо преодолеть LLM, прежде чем они станут «сверхразумом».

Однако, по словам создателя ChatGPT OpenAI, эта «самая впечатляющая технология, когда-либо изобретенная человечеством», может «появиться в этом десятилетии» и может «привести к вымиранию человечества».

Знак чат-бота для концепции службы поддержки.

Много лет назад мы уже слышали, что человекоподобный ИИ уже не за горами. В то время, когда Терри Виноград поступил в аспирантуру в конце 1960-х годов, большинство [умных и знающих людей] «верили, что пройдет немного времени, прежде чем машины начнут видеть, слышать, говорить, двигаться и выполнять другие задачи, подобные человеческим», — писал Джон Маркофф. в «Машинах любящей благодати».

Для своей докторской диссертации в Массачусетском технологическом институте Виноград разработал SHRDLU — компьютерную программу, способную участвовать в разговорах о вымышленном мире, «микромире», состоящем из игрушечных кубиков и «захвата» для их перемещения. Он отвечал на команды на английском языке, манипулируя блоками с помощью захвата, и «понимал» вопросы о состоянии своего мира.

В своей истории искусственного интеллекта Нильс Нильссон говорит, что впечатляющие результаты SHRDLU вселили в некоторых исследователей НЛП «оптимизм в отношении будущего успеха». Но «Виноград вскоре отказался от этого направления исследований в пользу работ, посвященных взаимодействию компьютеров и людей. Возможно, потому, что он на собственном опыте узнал, сколько знаний требуется для успешного понимания языка в таком простом мире, как мир кубиков, он отчаялся когда-либо дать компьютерам достаточно знаний, чтобы воспроизвести весь спектр человеческих речевых навыков».

Позже, в 2006 году, Виноград рассматривал статистическое понимание языка, нейронные сети и машинное обучение как новые разработки, продвигающие область ИИ в направлении его предпочтительного подхода к взаимодействию человека с компьютером. «Просвещенный метод проб и ошибок превосходит планирование безупречного интеллекта» находится в центре этого подхода, писал он, признавая «ограниченность знания и моделирования сложностей реального человеческого мира».

Дальнейшие успехи подхода статистического анализа к ИИ, особенно в области идентификации изображений в 2012 году, заставили наиболее умных и знающих людей поверить в то, что человекоподобный машинный интеллект или даже «сверхинтеллект» снова не за горами.

Большинство, но не все. Один популярный инструмент, используемый теми, кто ставит под сомнение интеллект нового ИИ, стал известен как Winograd Schema Challenge. Это было детище Гектора Левеска из Университета Торонто в 2010 году, основанное на примере семантической двусмысленности, упомянутом в книге Винограда «Понимание естественного языка» 1972 года. Чтобы преодолеть ограничения «теста Тьюринга», Левеск предложил тест с множественным выбором, который требует правильного разрешения неоднозначного местоимения в утверждении. Например,

Трофей не помещается в коричневый чемодан, потому что он слишком велик. Что такое слишком большой?

А. Трофей

Б. Чемодан

«Задача вызвала изрядный положительный интерес как со стороны исследовательского сообщества, так и со стороны научно-популярной прессы. Естественность проблемы делала ее справедливой для систем ИИ; сложность связанных с этим выводов, казалось, вывела его далеко за рамки современной технологии», — пишут авторы книги «Поражение схемы Винограда» (январь 2023 г.).

Действительно, на «первом и последнем запуске конкурса Winograd Schema Challenge», который состоялся в 2016 году, самая успешная из шести участвовавших в нем программ ИИ набрала 58% баллов по набору тестов, что лишь немногим выше случайности. На первой конференции O'Reilly AI в том же году, в то время как некоторые говорили о «сверхчеловеческих» беспилотных автомобилях, которые не за горами, другие, в том числе пионер глубокого обучения Янн ЛеКун, упомянули схему Винограда как нерешенную проблему в тестировании знание машины о том, как устроен мир.