O que é alucinação de IA e como você a identifica?

O que é alucinação de IA e como você a identifica?
Leitores como você ajudam a apoiar o MUO. Quando você faz uma compra usando links em nosso site, podemos ganhar uma comissão de afiliado. Consulte Mais informação.

A alucinação de Inteligência Artificial (IA) soa desconcertante. Você provavelmente está pensando: 'A alucinação não é um fenômeno humano?' Bem, sim, costumava ser um fenômeno exclusivamente humano até que a IA começou a exibir características humanas como reconhecimento facial, autoaprendizagem e reconhecimento de fala.





MAKEUSEDO VÍDEO DO DIA ROLE PARA CONTINUAR COM O CONTEÚDO

Infelizmente, a IA assumiu alguns atributos negativos, incluindo alucinações. Então, a alucinação da IA ​​é semelhante ao tipo de alucinação que os humanos experimentam?





O que é alucinação de IA?

A alucinação de inteligência artificial ocorre quando um modelo de IA gera resultados diferentes do esperado. Observe que alguns modelos de IA são treinados para gerar intencionalmente saídas não relacionadas a qualquer entrada do mundo real (dados).





Por exemplo, principais geradores de conversão de texto em arte de IA , como o DALL-E 2, pode gerar criativamente novas imagens que podemos rotular como 'alucinações', pois não são baseadas em dados do mundo real.

Alucinação de IA em modelos de processamento de linguagem grande

Vamos considerar como seria a alucinação de IA em um grande modelo de processamento de linguagem, como o ChatGPT. Uma alucinação do ChatGPT resultaria no bot fornecendo a você um fato incorreto com alguma afirmação, de modo que você naturalmente consideraria tais fatos como verdade.



Em termos simples, são declarações inventadas pelo chatbot artificialmente inteligente. Aqui está um exemplo:

  ChatGPT's response to where Elon Musk's house is located

Em uma consulta mais aprofundada, o ChatGPT apareceu com isso:





  Um ChatGPT solicita mais perguntas sobre onde elon musk's factory is at in brazil

Alucinação de IA na Visão Computacional

Vamos considerar outro campo da IA ​​que pode experimentar a alucinação da IA: Visão Computacional . O quiz abaixo mostra uma montagem 4x4 com duas entidades muito parecidas. As imagens são uma mistura de batatas fritas para churrasco e folhas.

O desafio é selecionar as batatas fritas sem acertar nenhuma folha na montagem. Esta imagem pode parecer complicada para um computador e pode ser incapaz de diferenciar entre as batatas fritas e as folhas.





quanto custa o youtube premium?
  Uma montagem 4x4 de batatas fritas e folhas de churrasco

Aqui está outra montagem com uma mistura de imagens de poodle e porco floss bun. Um computador provavelmente não seria capaz de diferenciá-los, misturando as imagens.

  Uma montagem 4x4 de poodle e bolo de fio dental de porco

Por que ocorre a alucinação de IA?

A alucinação de IA pode ocorrer devido a exemplos adversários - dados de entrada que induzem um aplicativo de IA a classificá-los incorretamente. Por exemplo, ao treinar aplicativos de IA, os desenvolvedores usam dados (imagem, texto ou outros); se os dados forem alterados ou distorcidos, o aplicativo interpreta a entrada de maneira diferente, fornecendo uma saída errada.

Em contraste, um ser humano ainda pode reconhecer e identificar os dados com precisão, apesar das distorções. Podemos rotular isso como senso comum – um atributo humano que a IA ainda não possui. Veja como a IA é enganada com exemplos adversários neste vídeo:

Em relação a grandes modelos baseados em linguagem, como ChatGPT e suas alternativas , as alucinações podem surgir da decodificação imprecisa do transformador (modelo de aprendizado de máquina).

Na IA, um transformador é um modelo de aprendizado profundo que usa a autoatenção (relações semânticas entre as palavras em uma frase) para produzir texto semelhante ao que um humano escreveria usando uma sequência de codificador-decodificador (entrada-saída).

Portanto, os transformadores, um modelo de aprendizado de máquina semissupervisionado, podem gerar um novo corpo de texto (saída) a partir do grande corpo de dados de texto usado em seu treinamento (entrada). Ele faz isso prevendo a próxima palavra em uma série com base nas palavras anteriores.

Com relação à alucinação, se um modelo de linguagem foi treinado em dados e recursos insuficientes e imprecisos, espera-se que a saída seja inventada e imprecisa. O modelo de linguagem pode gerar uma história ou narrativa sem inconsistências lógicas ou conexões pouco claras.

No exemplo abaixo, o ChatGPT foi solicitado a fornecer uma palavra semelhante a 'revolta' e começa com um 'b'. Aqui está a sua resposta:

  Captura de tela do ChatGPT dando respostas erradas a uma pergunta

Ao investigar mais, continuou dando respostas erradas, com alto nível de confiança.

cartão SIM não provisionado mm # 2
  Captura de tela do ChatGPT dando várias respostas erradas a um prompt

Então, por que o ChatGPT não consegue dar uma resposta precisa a essas solicitações?

Pode ser que o modelo de linguagem não esteja equipado para lidar com prompts bastante complexos como esses ou que não possa interpretar o prompt com precisão, ignorando o prompt ao fornecer uma palavra semelhante com um alfabeto específico.

Como você identifica a alucinação da IA?

É evidente agora que os aplicativos de IA têm o potencial de alucinar – gerar respostas de outra forma a partir da saída esperada (fato ou verdade) sem qualquer intenção maliciosa. E detectar e reconhecer alucinações de IA depende dos usuários de tais aplicativos.

Aqui estão algumas maneiras de detectar alucinações de IA ao usar aplicativos comuns de IA:

1. Grandes modelos de processamento de linguagem

  Imagem mostrando Bing Chat e ChatGPT em sinais de seta

Embora raro, se você notar um erro gramatical no conteúdo produzido por um grande modelo de processamento, como o ChatGPT, isso deve levantar uma sobrancelha e fazer você suspeitar de uma alucinação. Da mesma forma, quando o conteúdo gerado por texto não soa lógico, não se correlaciona com o contexto fornecido ou não corresponde aos dados de entrada, você deve suspeitar de uma alucinação.

Usar o julgamento humano ou o bom senso pode ajudar a detectar alucinações, pois os humanos podem identificar facilmente quando um texto não faz sentido ou segue a realidade.

2. Visão Computacional

  Imagem de circuitos e uma cabeça humana

Como um ramo da inteligência artificial, aprendizado de máquina e ciência da computação, a visão computacional permite que os computadores reconheçam e processem imagens como os olhos humanos. Usando redes neurais convolucionais , eles contam com a incrível quantidade de dados visuais usados ​​em seu treinamento.

como consertar o uso de 100 cpu

Um desvio dos padrões dos dados visuais usados ​​no treinamento resultará em alucinações. Por exemplo, se um computador não foi treinado com imagens de uma bola de tênis, ele pode identificá-la como uma laranja verde. Ou se um computador reconhece um cavalo ao lado de uma estátua humana como um cavalo ao lado de um ser humano real, ocorreu uma alucinação de IA.

Portanto, para identificar uma alucinação de visão computacional, compare a saída gerada com o que se espera que um humano [normal] veja.

3. Carros autônomos

  Ford Blue Cruise 2
Crédito da imagem: Ford

Graças à IA, os carros autônomos estão gradualmente se infiltrando no mercado automotivo. Pioneiros como o piloto automático da Tesla e o BlueCruise da Ford têm defendido a cena dos carros autônomos. você pode conferir como e o que o piloto automático da Tesla vê para entender um pouco como a IA alimenta os carros autônomos.

Se você possui um desses carros, gostaria de saber se seu carro AI está alucinando. Um sinal será se o seu veículo parecer estar se desviando de seus padrões normais de comportamento durante a condução. Por exemplo, se o veículo frear ou desviar repentinamente sem nenhum motivo óbvio, seu veículo de IA pode estar tendo alucinações.

Sistemas de IA também podem ter alucinações

Os seres humanos e os modelos de IA experimentam alucinações de maneira diferente. Quando se trata de IA, as alucinações referem-se a saídas errôneas que estão a quilômetros de distância da realidade ou não fazem sentido no contexto do prompt fornecido. Por exemplo, um chatbot de IA pode dar uma resposta gramatical ou logicamente incorreta ou identificar erroneamente um objeto devido a ruído ou outros fatores estruturais.

As alucinações de IA não resultam de uma mente consciente ou subconsciente, como você observaria em humanos. Em vez disso, resulta da inadequação ou insuficiência dos dados usados ​​no treinamento e programação do sistema de IA.