Аннотация:С распространением и успешным внедрением методов машинного обучения и развитием технологий, а также с учетом значительного снижения стоимости комплектующих, используемых в мобильных устройствах, область анализа и моделирования эмоций значительно расширилась. Приложения для смартфонов, веб-приложения и разного рода помощники, обладающие искусственным интеллектом (далее ИИ) создаются с учетом запроса пользователей на определен- ный функционал: распознавание эмоций и демонстрацию эмоционального поведения. Подобные практические запросы подталкивают развитие научных исследований в области моделирования эмоций, появляются новые модели и подходы. В то же время возможность создавать новые устройства, которые могут действовать как индивидуальные агенты, требует от разработчиков повышенной профессиональной ответственности и соблюдения этики моделирования. При этом многие теоретические исследования поддерживают или порождают ошибки, связанные как с методологическими, так и с социальными, ценностными основаниями моделирования эмоций. Фундаментальность проблемы эмоций вынуждает исследователей внимательно обсуждать и аккуратно использовать существующие ограниченные модели. Основной целью данной статьи является краткий анализ разного рода ошибок и искажений, которые встречаются во многих существующих моделях. К ним относятся недооценка и, с другой стороны, переоценка возможностей эмоциональных машин, использование антропоморфного языка для систем ИИ и ошибочное наделение их эмоциональностью, использование чрезмерно упрощенных моделей человеческих эмоций, культурные и гендерные искажения, методологические сложности разработки эмоциональной системы у ИИ.