Исследователи из Кембриджского университета и Google DeepMind разработали первый научно валидированный «тест личности» для ИИ-чатботов, показавший, что современные большие языковые модели не просто имитируют отдельные человеческие черты, но демонстрируют устойчивые и измеримые профили личности. В основе работы -классические психометрические методы, обычно применяемые для оценки личности человека, в том числе модель «большой пятерки» (открытость, добросовестность, экстраверсия, доброжелательность и нейротизм). Исследователи адаптировали эти тесты для ИИ и проверили 18 различных моделей. Выяснилось, что крупные умные модели (вроде GPT-4-класса) наиболее точно и последовательно воспроизводят человеческие черты характера, а результаты тестов хорошо предсказывают их поведение в реальных задачах. Авторы также показали, что «личность» чатбота можно систематически менять. Например, делать его более экстравертным или эмоционально нестабильным, и эти изменения отражаются в практических сценариях, таких как написание постов или общение с пользователями. По мнению исследователей, это открывает не только новые возможности, но и серьезные риски: персонализация личности ИИ может усилить его убедительность и манипулятивный потенциал.