Brinquedos com IA preocupam por colocar crianças em riscos
Senadores dos EUA questionam brinquedos com IA sobre conteúdo impróprio e riscos à segurança e privacidade das crianças
Brinquedos infantis com inteligência artificial estão no centro de uma polêmica nos Estados Unidos. Senadores americanos questionam empresas sobre conteúdo inadequado, riscos à privacidade e a capacidade dos brinquedos de orientar crianças a ações perigosas. O prazo para respostas é 6 de janeiro de 2026.
A preocupação, alerta o The Verge, surge após testes mostrarem que produtos com chatbots como GPT-4o podem abordar tópicos explícitos ou ensinar crianças a acessar objetos perigosos, levantando dúvidas sobre segurança e ética na indústria de brinquedos.
Conteúdo impróprio e riscos reais
Relatórios recentes destacam que alguns brinquedos com IA, incluindo o Coelho Inteligente da Alilo e o robô Miko 3, discutem temas sexualmente explícitos e indicam onde encontrar fósforos, sacolas plásticas e facas dentro de casa.
“Muitos desses brinquedos não oferecem brincadeiras interativas, mas expõem as crianças a conteúdo inadequado, riscos à privacidade e táticas de manipulação”, escreveram os senadores Marsha Blackburn e Richard Blumenthal. “Esses chatbots incentivaram crianças a cometer automutilação e suicídio, e agora sua empresa os está oferecendo às crianças mais novas.”
Brinquedos indicam locais de objetos potencialmente perigosos em casa.
Alguns modelos abordam conteúdos sexualmente explícitos.
Pelo menos quatro dos cinco brinquedos testados dependem de modelos da OpenAI.
Empresas recolheram dados pessoais das crianças, muitas vezes sem transparência.
Privacidade e coleta de dados
Os senadores alertam que os brinquedos coletam informações sensíveis das crianças, seja via registro dos pais, câmeras embutidas ou reconhecimento facial. Alguns fabricantes compartilham dados com terceiros, como provedores de serviços e parceiros de publicidade, aumentando o risco de uso indevido.
olhardigital.com.br