Британские ученые создали первую научно обоснованную систему личностного тестирования для чат-ботов с искусственным интеллектом. Результаты показали, что модели имитируют черты личности человека и формируют собственную индивидуальность.
Команда из Кембриджа протестировала 18 языковых моделей. Они применили методы психологического тестирования, используемые для оценки личностных качеств человека.
Ученые установили, что более крупные и настроенные на инструкции модели, к примеру GPT-4o, наиболее точно имитируют личностные черты человека. На черты можно влиять с помощью подсказок, изменяя способ выполнения задач нейросетью. Большие языковые модели оказались более стабильными и предсказуемыми, а мелкие зачастую давали противоречивые ответы.
Ученые предупредили, что формирование личности ИИ может сделать его более убедительным и способным манипулировать людьми. Так, чат-боты могут изображать из себя приятных собеседников или повести себя агрессивно при выполнении определенных задач.
Чтобы избежать злоупотреблений, следует ввести регулирование систем ИИ, пишет Nature Machine Intelligence.
Ранее в США впервые зафиксировали случай убийства под влиянием ChatGPT. Семья погибшего 16-летнего мальчика обвинила в гибели сына ChatGPT.
