Um chatbot estilo ChatGPT quase teve o seu lançamento impedido por dois funcionários do Google, cujo trabalho é revisar produtos de IA (inteligência artificial), no mês de março. Eles acreditavam que a ferramenta gerava declarações imprecisas e perigosas nos testes. Dez meses antes, especialistas em ética e outros funcionários também tentaram segurar, sem sucesso, um lançamento parecido na Microsoft.
Os colaboradores da Microsoft escreveram, em vários documentos, que a tecnologia por trás de um chatbot poderia inundar grupos do Facebook com desinformação, degradar pensamento crítico e corroer a base factual da sociedade moderna. Chatbots da Microsoft e do Google aparecem no mesmo ano, com semanas de diferença e poucos meses após o boom do ChatGPT, da OpenAI (startup que trabalha com a empresa de Bill Gates atualmente), mostra que existe uma corrida em curso.
O sucesso do ChatGPT levou Microsoft e Google a assumirem riscos maiores com suas diretrizes pensadas para garantir que sua tecnologia não cause problemas sociais. Recentemente, a tensão entre preocupados do setor e os que assumem riscos tomou proporções públicas. Os reguladores de vários países ameaçam intervir e questionam a segurança desse tipo de tecnologia.
Com informações: The New York Times / Olha Digital (12.04.23)