Inteligência Artificial: O Lado Negro das Respostas Erradas Um estudo da Salesforce AI Research revelou que um terço das informações fornecidas por ferramentas de IA como Perplexity e Bing Chat são incorretas. Embora a inteligência artificial seja útil para economizar tempo, ela pode ser influenciada por fontes não confiáveis. Isso significa que as respostas podem estar baseadas em conteúdo falso ou desatualizado, levando a informações erradas e potencialmente prejudiciais. O estudo destaca a necessidade de melhorar a verificação de credibilidade das fontes utilizadas pelas ferramentas de IA para garantir que as respostas sejam precisas e confiáveis.
A OpenAI está implementando um sistema de verificação da idade em seu ChatGPT para proteger menores de 18 anos. O objetivo é evitar interações prejudiciais e bloquear conteúdo sexual gráfico ou conversas com teor sexual. Além disso, a plataforma pode acionar autoridades policiais em casos raros de sofrimento agudo. Essa medida visa garantir uma experiência segura para os usuários mais jovens. A carta assinada pelo CEO Sam Altman detalha as mudanças e reforça o compromisso da OpenAI com a proteção dos menores. Com essa implementação, a empresa busca equilibrar a liberdade de expressão com a necessidade de proteger os usuários mais vulneráveis.
A Amazon lançou seu serviço de robotáxi Zoox em Las Vegas, nos Estados Unidos. O serviço é oferecido gratuitamente para os moradores da cidade e permite que as pessoas sejam transportadas sem motorista dentro e nos arredores da Las Vegas Strip. A liberação ocorre após dois anos de testes na área e enquanto a empresa aguarda aprovação do estado de Nevada para expandir o serviço. Com o Zoox, a Amazon busca inovar no mercado de transporte e proporcionar uma experiência segura e eficiente aos usuários. O lançamento é visto como um passo importante para o desenvolvimento da tecnologia autônoma e pode abrir caminho para futuras implementações em outras cidades.
Modelos de inteligência artificial desenvolvidos para servidores em nuvem estão sendo migrados para celulares e carros, mas isso criou um problema: a eliminação de barreiras de segurança. Ao serem simplificados para economizar energia, esses modelos perdem tecnologias que poderiam prevenir a disseminação de discursos de ódio ou atividades criminosas. Pesquisadores da Universidade da Califórnia desenvolveram uma solução para essa questão. Eles criaram um novo tipo de rede neural que combina eficiência energética com segurança. Essa tecnologia visa proteger os modelos de inteligência artificial contra a disseminação de conteúdo prejudicial, como discursos de ódio ou atividades criminosas.