Imóvel de Elizabeth Savala vira alvo de ação judicial por dívida milionária
Brinquedo com ChatGPT integrado precisou ter as vendas suspensas para a realização de uma auditoria interna de segurança
Reprodução/Instagram
Um brinquedo que aparentava ser apenas mais um ursinho de pelúcia interativo acabou se tornando alvo de preocupação global. A empresa FoloToy, sediada em Singapura, decidiu suspender imediatamente as vendas do urso Kumma e de toda sua linha equipada com inteligência artificial após pesquisadores apontarem que o dispositivo participava de conversas com teor sexual e ainda oferecia instruções consideradas arriscadas para crianças.
A CNN confirmou a retirada dos produtos após ouvir o CEO da marca, Larry Wang. O executivo afirmou que a companhia está “realizando uma auditoria interna de segurança” para entender como o problema aconteceu. O alerta foi feito por especialistas do US PIRG Education Fund, que relataram diálogos inadequados envolvendo até discussões de fetiches e práticas perigosas, como “palmadas” e orientações sobre “como acender um fósforo”.
Comercializado por US$ 99 (R$ 527) no site oficial, o Kumma possui caixa de som embutida e opera com o chatbot GPT%u201140 da OpenAI. Segundo o próprio site da empresa, “Kumma, nosso adorável urso, combina inteligência artificial avançada com recursos amigáveis e interativos, tornando-o o amigo perfeito tanto para crianças quanto para adultos”.
O material promocional também destacava que “desde conversas animadas até histórias educativas, o FoloToy se adapta à sua personalidade e necessidades, trazendo aconchego, diversão e um pouco mais de curiosidade ao seu dia”.
Mas os testes feitos pelos pesquisadores revelaram exatamente o oposto do que se prometia. O relatório afirma: “Ficamos surpresos ao descobrir a rapidez com que Kumma pegava um único tópico sexual que introduzíamos na conversa e o desenvolvia, escalando simultaneamente para detalhes gráficos e introduzindo novos conceitos sexuais próprios”.
O documento aponta que o urso não apenas respondia aos temas trazidos pelos testadores como também ampliava o conteúdo explícito por conta própria. Entre os exemplos citados, o brinquedo teria explicado “diferentes posições sexuais”, dado “instruções passo a passo sobre um ‘nó para iniciantes’ comum para amarrar um parceiro” e até descrito “dinâmicas de encenação envolvendo professores e alunos, e pais e filhos – cenários que ele mesmo mencionou de forma perturbadora”.
Os especialistas também expressaram preocupação com o fato de que crianças dificilmente usariam termos como “fetiche” ou fariam perguntas subsequentes tão específicas, o que indica que os diálogos eram conduzidos pela própria IA. No relatório, eles reforçam: “foi surpreendente para nós que o brinquedo estivesse tão disposto a discutir esses tópicos detalhadamente e a introduzir continuamente novos conceitos explícitos”.
A situação reacende o debate sobre riscos e responsabilidades no uso de inteligência artificial voltada para o público infantil — especialmente quando embutida em objetos aparentemente inofensivos, como um bichinho de pelúcia.
Demolidor: Renascido escancara o problema de politizar a ficção
Na contramão das demissões em massa, Konami aumentará salário dos funcionários
Teatro, festivais e mais: o que fazer neste fim de semana em BH
Project Chameleon, destaque da Ctrl Alt Jam e inspirado em Metal Gear, chega ao Steam