Última atualização: 22 de fevereiro de 2024, 7h21min PST. Esta publicação foi atualizada para incorporar uma declaração da OpenAI sobre o incidente.

O ChatGPT é conhecido por seus recursos impressionantes, mas na terça-feira houve um incidente divertido na sede da OpenAI envolvendo um novo chatbot experimental chamado Sinônimo Scrambler.

Na verdade, o ChatGPT estava se comportando de várias maneiras ontem, mas um padrão comum era responder a perguntas simples sobre tecnologia ou trabalho com respostas elaboradas e difíceis de entender. Por exemplo, de acordo com um post do arquiteto Sean McGuire, o chatbot deu conselhos que pareciam confusos e sem sentido.

O autor do texto observa que o ChatGPT parece ter escrito de forma exagerada, como se um estudante do nono ano estivesse abusando do uso do tesauro. Um exemplo desse estilo é a palavra “beatine”. Embora não conste no Oxford English Dictionary, o Wiktionary sugere que pode estar relacionada ao teólogo Beatus de Liébana, um estudioso do fim dos tempos que faleceu em 800 d.C. Assim, o autor especula que “beatine” talvez tenha significado “apocalíptico” em algum momento no primeiro milênio d.C. Ou, considerando seu uso em livros antigos, poderia ser apenas uma variação de “beatífico”. Em suma, o ChatGPT estava dando uma nova interpretação ao termo “esotérico”.

O chatbot estava temporariamente realizando essa ação com muitos de seus usuários. Um usuário do Reddit, homtanksreddit, notou que o ChatGPT 3.5 – a versão gratuita – aparentemente não foi afetado, sugerindo que o bug pode ter afetado apenas os usuários que pagam pelo serviço.

Em diversas situações, o ChatGPT inicialmente respondeu à pergunta do utilizador de forma clara e moderna antes de se tornar mais excêntrico. Um utilizador do Reddit compartilhou uma captura de tela do ChatGPT, mostrando um exemplo de como o ChatGPT estava agindo de forma estranha. O utilizador descreveu o problema que o ChatGPT estava enfrentando e perguntou qual seria o nome desse problema. A resposta inicial do ChatGPT foi adequada.

Não há um termo padrão específico para quando um modelo de linguagem como GPT (Generative Pré-treinado Transformer) começa a gerar respostas irrelevantes ou distorcidas em vez de respostas claras e relevantes. No entanto, esse problema pode ser caracterizado como uma forma de “deterioração na geração de texto” ou um “erro de funcionamento” do LLM (modelo de linguagem principal).

Não está mal. No entanto, tornou-se peculiar ao notar que “em termos de bytes […] a desconfiança pode obscurecer a importância do sistema”.

…então a situação se tornou ainda mais peculiar.

No mundo prático, se você perceber um sistema de processamento de linguagem natural que fornece resultados promissores que depois se revelam como ilegíveis ou confusos, isso pode ser devido a ideias iniciais incorretas, falta de compreensão de partes envolvidas, confusão acumulada em diferentes partes do sistema, ou um erro significativo no processo – uma situação complexa e multifacetada.

Esse comportamento deve ser registrado para que os desenvolvedores o analisem, seja durante a correção de falhas de segurança, ao aprender a lidar com situações desafiadoras, ou ao considerar a importância da correção em relação à coesão e distensão. Isso possibilitará que os desenvolvedores identifiquem e apontem a direção correta para a resolução do problema.

Aqui está a resposta que precisas. O ChatGPT estava claramente enfrentando dificuldades com inserções desordenadas, falta de clareza em certas partes e confusão mais acentuada em alguns módulos. Em resumo!

Muitos usuários questionaram se o ChatGPT estava oferecendo um curso.

…e ao menos uma pessoa se questionou se estava sozinha tendo um acidente vascular cerebral.

  • ChatGPT irá agora reter informações sobre você.
  • OpenAI está incluindo marcas d’água em imagens geradas pelo ChatGPT usando o DALL-E 3.
  • Agora, com o ChatGPT, é possível convidar mais GPTs para participarem da conversa.

A partir da manhã de quarta-feira, não consegui mais fazer o ChatGPT produzir respostas criativas, mesmo quando solicitei que ele explorasse profundamente um assunto tedioso. Portanto, é possível afirmar que a situação foi apenas temporária.

No começo da quarta-feira, a página de bugs indicou que o problema foi reconhecido, porém ainda estava sob observação. Mais tarde pela manhã, a página declarou que o problema estava “solucionado”. Ao ser questionado, um porta-voz da OpenAI PR direcionou o Mashable para a página de status geral do ChatGPT, que simplesmente informa “Todos os sistemas operacionais” até o momento desta redação.

Mashable pediu à OpenAI para elaborar sobre o que tinha acontecido, talvez em um estilo obscuro e grandiloquente, mas o pedido não foi imediatamente concedido na plenitude de nossas deslealdades jornalísticas, instintivas e um tanto cavilosas.

Na quarta-feira à noite, a OpenAI divulgou uma explicação sobre o incidente desse bug em sua página de incidentes.

No dia 20 de fevereiro de 2024, uma melhoria na experiência do usuário resultou em um erro no funcionamento do modelo ao processar a linguagem.

Os LLMs produzem respostas selecionando aleatoriamente palavras com base em probabilidades, utilizando números que correspondem a tokens em sua “linguagem”.

Neste exemplo, o problema ocorreu na fase em que o modelo seleciona esses números. Devido a uma falha na tradução, o modelo acabou escolhendo números um pouco imprecisos, resultando em sequências de palavras sem sentido. Em termos mais técnicos, os núcleos de inferência geraram resultados incorretos ao serem utilizados em certas configurações de GPU.

Identificamos o motivo do problema, tomamos as medidas necessárias e verificamos que a situação foi solucionada.

A capacidade das máquinas de realizar tarefas que normalmente requerem inteligência humana.

Share.

Comments are closed.

Exit mobile version