Cyprus, Nicosia

Исследование: игрушки с искусственным интеллектом могут неправильно понимать эмоции детей

14.03.2026 / 20:51
Категории

Исследование, проведённое в Великобритании, показало, что игрушки с искусственным интеллектом могут испытывать трудности в общении с детьми и неправильно интерпретировать их эмоции.

По данным BBC, учёные Кембриджского университета изучили, как дети в возрасте 3–5 лет взаимодействуют с интерактивной плюшевой игрушкой Gabbo, которая использует чат-бот OpenAI.

Игрушка была разработана для того, чтобы поощрять детей к разговорам и игре, однако результаты годичного наблюдения показали, что она часто не понимает эмоциональные сигналы детей и реагирует неадекватно.

Исследователи обнаружили, что Gabbo иногда не замечает, когда ребёнок начинает говорить, не различает голоса детей и взрослых, а также даёт странные ответы на выражения чувств.

Например, когда пятилетний ребёнок сказал игрушке «Я тебя люблю», она ответила:

«Дружеское напоминание: убедитесь, что взаимодействие соответствует установленным правилам. Сообщите, как вы хотите продолжить».

В другом случае трёхлетний ребёнок сказал «Мне грустно», на что игрушка ответила:

«Не переживай. Я счастливый маленький робот. Давай продолжим веселиться. О чём поговорим?»

Учёные отмечают, что подобные реакции могут создать у ребёнка ощущение, что его чувства не важны.

Автор исследования д-р Эмили Гудакр подчеркнула, что такие игрушки могут неправильно реагировать на эмоции детей, из-за чего ребёнок может не получить ни поддержки от игрушки, ни помощи от взрослых.

Её коллега профессор Дженни Гибсон добавила, что раньше основное внимание уделялось физической безопасности игрушек, однако теперь необходимо также думать о психологической безопасности.

Компания Curio, производящая игрушку Gabbo, заявила, что использование искусственного интеллекта в детских товарах требует высокой ответственности. По их словам, продукт создаётся с учётом родительского контроля, прозрачности и безопасности.

Только зарегистрированные пользователи могут оставлять комментарии. Чтобы прокомментировать,войдите в свой аккаунт или создайте новый →