Pular para o conteúdo

Ao que parece, chatbot do Bing já se afundou na loucura

Em pouco mais de uma semana de vida, sistema baseado no ChatGPT disse querer hackear computadores, espalhar desinformação e substituir a esposa de um jornalista do "New York Times"

Ao que parece, chatbot do Bing já se afundou na loucura

As poucas pessoas que têm acesso ao chatbot do Bing, ainda em fase de testes, estão embasbacadas: parece que o bicho já enlouqueceu.

Baseado no sistema de inteligência artificial de conversação da OpenAI, responsável pelo ChatGPT, o robô do buscador da Microsoft já aprontou estas em pouco mais de uma semana de vida:

Em resposta aos questionamentos do The Verge sobre o comportamento errático do chatbot, uma representante da Microsoft afirmou:

"O novo Bing tenta manter as respostas divertidas e factuais, mas como esta é uma prévia, às vezes pode mostrar respostas inesperadas ou imprecisas por diferentes motivos, por exemplo, a duração ou o contexto da conversa. À medida que continuamos a aprender com essas interações, estamos ajustando suas respostas para criar resultados coerentes, relevantes e positivos. Incentivamos os usuários a continuar usando seu bom senso e utilizar o botão de feedback no canto inferior direito de cada página do Bing para compartilhar suas opiniões."

Achamos que em 2023 estaríamos dando rolê em carros voadores, mas por enquanto só temos inteligência artificial talarica.

Via New York Times e The Verge (em inglês)

Rafael Capanema

Rafael Capanema

Redator e jornalista. Foi repórter de tecnologia da Folha de S.Paulo, redator do BuzzFeed Brasil, blogueiro do UOL, colunista de humor da Folha e redator das redes sociais da Netflix Brasil.

Todos os artigos

Mais em Jogo Rápido

Ver tudo

Mais de Rafael Capanema

Ver tudo