
Новые технологии стремительно внедряются в детские гаджеты. Например, компания Mattel планирует выпустить первые «умные» игрушки со встроенной нейросетью совместно с ChatGPT. Однако эксперты указывают, что искусственный интеллект (ИИ) для детей должен строго регулироваться, чтобы избежать возможных манипуляций.
«Чем выше уровень вовлечения технологий, тем больше ответственность. ИИ-системы, особенно в детской среде, должны регулироваться. Это касается как технических аспектов, так и содержательных. Дети – уязвимая аудитория. Важно, чтобы ИИ не только не причинял вреда, но и не манипулировал поведением», – подчеркнула Елизавета Белякова, председатель Альянса по защите детей в цифровой среде.
Она добавила, что IT-корпорации вносят значимый вклад в развитие технологий для детей, открывая доступ к качественному обучению, интерактивным играм и защищенным цифровым средам. Например, появились обучающие платформы, адаптированные под возраст, системы родительского контроля, а теперь и интеграция искусственного интеллекта в игрушки. По словам Беляковой, это дает детям возможность учиться через игру, развивать критическое мышление, языковые навыки и креативность в безопасной среде.
Стандартом для игрушек с использованием искусственного интеллекта должна быть локальная работа нейросети без использования облачных мощностей, полагает руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин. Это повысит стоимость продукта, но сохранит данные в пределах игровой комнаты ребенка. Также к разработке должны привлекаться психологи и специалисты, которые понимают устройство детской психики.
Еще один важный аспект, по мнению Полунина, – это прозрачность рекомендаций. Родители должны понимать, откуда и как передается контент.
«Нужны инструменты, которые объясняют поведение ИИ-систем, а не только ограничивают доступ. Также важно развивать цифровую грамотность у родителей и детей», – заключила Елизавета Белякова.
По материалам «Российской газеты»
Фото: РГ