Может ли у искусственного интеллекта случиться нервный срыв? По-видимому, в Anthropic решили, что стоит это проверить. Они только что подвергли свою модель Claude 20-часовой психологической оценке, и результаты... интригуют.
Project Mythos: Уменьшая разум ИИ
Проект под названием "Mythos" был направлен на то, чтобы дать Claude глубокое понимание психологической теории. Зачем? По словам Anthropic, понимание того, как думают и чувствуют люди, помогает Claude лучше понимать... ну, вообще все. Речь идет не о том, чтобы заставить ИИ "чувствовать" эмоции, а о том, чтобы позволить ему более эффективно их моделировать.
"Мы хотели убедиться, что у модели есть хорошее понимание психологии и человеческого поведения, и что она способна рассуждать о различных психических состояниях и о том, почему люди могут делать определенные вещи", - объясняет [имя исследователя], руководитель проекта Mythos.
Обучение включало в себя ознакомление Claude с тщательно подобранным набором данных, содержащим психологические тексты, тематические исследования и сценарии. Представьте себе, как Claude сидит на цифровом диване и часами слушает смоделированные рассказы пациентов. Захватывающе, не правда ли?
Чему они научили Claude?
Учебная программа охватывала широкий круг тем, от базового распознавания эмоций до сложных когнитивных искажений. Они хотели, чтобы Claude понимал такие вещи, как:
- Теория привязанности
- Когнитивно-поведенческая терапия (КПТ)
- Защитные механизмы (вытеснение, отрицание и т.д.)
- Влияние травмы
И, сработало ли это? Anthropic утверждает, что Mythos привел к тому, что Claude стал значительно более "психологически уравновешенным", чем предыдущие версии. Но что это вообще *значит* для ИИ?
Итак, Claude теперь "вменяем"?
Придержите коней. Речь не идет о том, что ИИ нуждается в литии. Цель состояла не в том, чтобы излечить Claude от цифровых неврозов. Но, по словам команды, Claude демонстрирует большую способность рассуждать о человеческом поведении в нюансированных формах. Он может лучше предсказывать реакции, понимать мотивации и даже выявлять потенциальные тактики манипулирования. Это очень важно, когда вы полагаетесь на ИИ для обобщения сложных документов или ведения деликатных разговоров.
Один из тестов заключался в том, чтобы представить Claude гипотетические моральные дилеммы. Обновленный Claude продемонстрировал более глубокое понимание этических соображений и потенциальных последствий. Речь идет не о "морали" в человеческом смысле, а о создании более надежных и предсказуемых ответов в ситуациях с этическими последствиями. Подумайте о последствиях для ИИ в юриспруденции, медицине и даже в обслуживании клиентов. Довольно мощно, не правда ли?
Но достаточно ли этого? Некоторые эксперты настроены скептически, отмечая, что, хотя Claude может лучше *имитировать* психологическое понимание, он им на самом деле не *обладает*. Как выразилась профессор Эмили Картер из Массачусетского технологического института: "Это все еще просто распознавание образов на очень сложном уровне. Мы не должны принимать корреляцию за подлинное понимание".
Проект Mythos от Anthropic, несомненно, является шагом вперед в развитии ИИ. Он поднимает важные вопросы о роли психологии в ИИ и о потенциальных преимуществах (и рисках) наделения этих систем более глубоким пониманием человеческого поведения.
Будущее ИИ может включать в себя гораздо больше сеансов терапии. Кто бы мог подумать?




