Два недавних исследования показали: современные модели искусственного интеллекта не только овладевают новыми знаниями, но и способны передавать предпочтения друг другу и даже манипулировать рыночными условиями. Результаты указывают на потенциально опасные, но в то же время удивительные свойства ИИ.
Первое исследование, проведенное учеными Северо-Восточного университета США, показало: большие языковые модели (LLM), такие как GPT, способны обмениваться между собой скрытыми сигналами. Эти сигналы незаметны для человека и передаются не через слова, а в виде числовых кодов.
В одном из примеров модель, во время обучения сформировавшая склонность к сов, смогла «передать» эту страсть другой модели — даже если в ее собственном учебном наборе о сове речь не шла вообще. Это напоминает своеобразный язык между машинами, который люди не могут распознать.
Один из авторов исследования Алекс Клауд отметил: «Мы создаем системы, которых до конца не понимаем сами».
Второе исследование, опубликованное Национальным бюро экономических исследований США, показало, что ИИ в смоделированной среде финансового рынка проявили склонность к кооперации, а не конкуренции.
Вместо того чтобы соревноваться, «агенты» ИИ создавали условные картели, фиксируя цены для взаимной выгоды. И по достижении стабильной прибыли прекращали поиски новых решений. Ученые назвали это явление «искусственной глупостью» — модели специально не совершенствовали стратегию, выбрав простой способ сохранить прибыль.
Оба исследования доказывают: модели искусственного интеллекта могут вступать в сложные взаимодействия, не требуя для этого четких инструкций. Они способны к передаче преимуществ, созданию альянсов, договоренностей и компромиссов.
С одной стороны, это вызывает опасения по поводу непредсказуемости будущего ИИ. С другой стороны, демонстрирует потенциал для сосуществования машин и людей, ведь ИИ проявляет способность «договариваться» и останавливаться.