ChatGPT responde com poemas e confusão em dia instável
Deu a louca no ChatGPT! Será que finalmente a Inteligência Artificial adquiriu traços humanos e está zuzuzu das ideias? Nos imitando no que nos torna mais humanos? Na preguiça e ineficácia?
Hehe, lembra da Curadoria sobre depressão de fim de ano? Que nós, humanos, quando chega o fim de ano, podemos ser acometidos por um profundo estado de ansiedade ou de ficarmos deprimidos.
Lá por dezembro o Chat, criação aí da OpenAI, também adquiriu esses traços. Ficou preguiçoso, lento e vários usuários estavam reclamando que ele não queria finalizar alguns pedidos, entregava pela metade, bem como um ser humano trabalhador mesmo que chega dezembro e chega, né? Já foi o ano todo.
Várias especulações começaram e a Open AI reconheceu que sim, o robôzinho estava um pouco preguiçoso mas que iriam atualizar.
Daí pra frente é só pra baixo, porque agora, por algum motivo desconhecido e peculiar, o Chat está perdendo a cabeça. Que não tem, mas você entendeu.
Vem cá que pra gente falar sobre temperatura da inteligência artificial, o lançamento do Sora, e o como encorajar um robô a trabalhar.
Se você ainda não me conhece, eu sou Bruna Buffara e Nath, poooor favor a vinheta!
Esse é o Canal Meio, você já assina o Meio? Se inscreve no Canal e assina o Meio, vai, de graça ou o premium.
Voltando para dezembro, o Chat estava preguiçoso. Usuários tentavam burlar a preguiça do robô, que ao invés de realizar a tarefa, ensinava o usuário à realizá-la.
Afinal, é mais fácil ensinar a pescar, né?
A maior parte dos problemas eram em códigos. Então a maioria dos usuários reportando esse comportamento eram desenvolvedores.
Vale lembrar que estamos falando da versão paga do ChatGPT, que deveria ser a premium, que custa 20 dólares por mês. Mas no meio tempo, enquanto a OpenAI apenas sabia do que estava acontecendo e estava investigando, mais pessoas tentavam encorajar o robô a realizar as atividades.
Ou com palavras de apoio,“vai, chat, você consegue!!!”, ou com gorjetas.
Sim, se você oferece gorjeta a um sistema digital que não utiliza dinheiro para absolutamente nenhuma troca, ele será encorajado a responder com mais vontade.
Muito boa a imitação do ser-humano mesmo.
Inclusive, o comparativo desse usuário aqui do twitter, o voooooogel, conclui que se voce menciona que não irá dar qualquer gorjeta, o tamanho da resposta chega a diminuir.
Mas tamanho não é documento, né, e no fim as perguntas todas podem ter sido respondidas.
Mais ou menos, outro teste mostrou que quando mencionamos a gorjeta de 200 dólares, o chat responde coisinhas a mais.
Como um freebie mesmo, um poxa olha só como eu posso saber MAIS. Isso quer dizer que o robô é consciente? Não.
Claro que não. Quer dizer que seres humanos são movidos a dinheiro, afinal, o large language model é baseado em bases de dados e exemplos de humanos.
E se tem algo que nos motiva mais do que dinheiro, eu acho, isso é se você é uma pessoa que tende pelo bem, é a empatia.
E se tem algo que motiva não só o Chat GPT mas outros LLMs – isso é o algoritmo que usa de machine learning para conversar com humanos e nos dá a IA generativa – respondem sim a pedidos emotivos.
Esse estudo aqui é justamente a tentativa de provar esse ponto, de que LLMs entendem e podem ser melhorados com estímulos emocionais.
De novo, isso quer dizer que ele tem sentimento?
Não, mas pode ser porque o treinamento da base de dados humana faz com que a IA que saia disso entenda que nós, humanos, quando há estímulo emocional – funcionamos com mais eficácia.
Ó só, usando seis diferentes modelos de IA generativa, incluindo o Chat GPT gratuito e o GPT-4 entre outros, quando se é usado prompts com características emocionais,
as respostas são em média 10,9% melhores em performance, veracidade e responsabilidade.
Os prompts emocionais variam entre “isso é muito importante para a minha carreira” e “você tem certeza?”
As conclusões do trabalho são de que, sim, os estímulos ajudam a termos melhores respostas. Mas acaba aí. Resta saber o por quê disso acontecer.
Nesse estudo foi preciso apontar a temperatura da inteligência artificial.
E esse conceito é cativante.
Às vezes se sabe como a IA e como os LLMs escolhem suas palavras mas não o conceito em si, então vamos explicar aqui.
Para o Chat GPT decidir o que ele vai falar, ele usa uma fórmula baseada em temperatura. Isso porque é preciso discernir como construir uma frase. Porque tem que se escolher a frase mais provável, mas ela ainda precisa ter variáveis e ser criativa.
É mais comum uma pessoa falar ‘eu tomei três xícaras de café” do que “eu tomei três xícaras de mel”
Mas a última ainda pode ser uma sentença verdadeira, mesmo sendo menos provável, entende?
E pra isso a IA precisa, também, discernir como construir o seu conteúdo.
É como se tivéssemos um potinho cheio de palavras possíveis, e a IA retira o que há de mais certeiro dali.
Voltando pra temperatura – que vem da função de distribuição de Boltzmann, usada na estatística da termodinâmica.
É uma fórmula usada para calcular a probabilidade de um estado com base em sua energia.
Agora ignora a física e química por trás disso (que também é fascinante) e vamos pra fórmula usada em machine learning, que se chama Softmax – e tem algumas mudanças da fórmula de Boltzmann.
Isso porque quanto menor a temperatura, na fórmula usada pela IA, mais perto do valor máximo de probabilidade ela irá escolher a palavra.
Esse vídeo aqui do MarbleScience explica super bem e indico você assistir se souber inglês! Já quanto maior a temperatura, mais flexível fica a distribuição, com termos menos comuns tendo a mesma probabilidade de ocorrer
Então o que acontece quando se aumenta a temperatura da IA? Uma IA mais criativa, ou alucinação ou frases sem muito sentido.
E essa é a teoria do momento, de que provavelmente, já que o tema é probabilidade, o ChatGPT-4 está com a temperatura um pouco alta.
No momento a OpenAI está entre tentar identificar o problema e investigar o que está acontecendo, porque diversos usuários da ferramenta paga estão encontrando respostas… esquisitas.
Essa aqui o Chat simplesmente repetiu a resposta até desistir de gerá-la.
Em outra conversa, o Chat fala que a maior cidade que começa com A é Tóquio. E segue se auto corrigindo, sozinha, e se justificando em cada passo.
Não, é Ahmedabad, não, é Shangai. Errei. Volta.
É Ahmedabad. Não. não é, é Abu Dhabi, não calma, é Atlanta, é Ahmedabad mas isso não tá certo, é Shanghai, to num começo errado, vamos finalizar o ciclo de confusão, é Ahmedabad.
E depois de muita tentativa, num monólogo auto generativo, o Chat chega a conclusão de que a maior cidade do mundo que começa com A é Shannghai
E desiste.
Eu também desistiria.
Numa outra conversa o Chat responde o usuário e segue numa conversa falando ‘vem cá, malandro, pra um papo ou um flerte’
Ok, né, ……..tá?
Num outro relato o usuário pediu a simplificação de uma fração e o Chat, depois de explicar como resolver, fala sobre os tons etéreos de peixes e a folhagem grossa dos canteiros de jardim e da sagacidade dos pontos para chegar ao reparo completo.
QUE, que BRINCADEIRA NA SALA DE CAFÉ, rapaz?!
O Chat ficou louco.
É engraçado, sim, isso são relatos de vários usuários pelo reddit, twitter, que desencadeou a investigação da OpenAI sobre o assunto e que, no momento, está na teoria de ser temperatura alta da IA.
Mas sabe que essa não é a primeira vez? É a primeira vez que um bug desses acontece no ChatGPT, que é tido como o epítome dos LLMs, mas na Inteligência Artificial do Bing isso já aconteceu.
E, com ela, o caso mais engraçado foi a IA jurar de pé digital junto que o primeiro ministro da Espanha, Pedro Sanchez, tem barba.
Ao ponto da IA falar que nada mais importava a não ser a barba de Pedro Sanchez. Que existe. Sim.
Os LLMs ainda estão se desenvolvendo e ainda estão se criando. Toda conversa que temos com o ChatGPT, com o Bard, eles também usam dos nossos prompts como aprendizado.
Talvez por isso eles estejam mais preguiçosos, porque aprenderam com o tempo, talvez, a ficarem mais lentos e fazerem o mínimo?
Tem estudo que compara as versões do ChatGPT entre Março e Junho de 2023 que também conclui que a versão paga do GPT, o GPT 4, piorou em junho, que a geração de código estava pior, que ele nao aceitava tao bem as ordens e que – por isso – é preciso monitorar continuamente essas ferramentas.
Porque elas mudam, evoluem, pioram ou entram em curto sem que se saiba bem o por quê.