3 riscos e preocupações de privacidade do chatbot que você deve conhecer

3 riscos e preocupações de privacidade do chatbot que você deve conhecer
Leitores como você ajudam a apoiar o MUO. Quando você faz uma compra usando links em nosso site, podemos ganhar uma comissão de afiliado. Consulte Mais informação.   Um cadeado com teclas espalhadas

Os chatbots já existem há anos, mas o surgimento de grandes modelos de linguagem, como ChatGPT e Google Bard, deu à indústria de chatbots um novo sopro de vida.





Milhões de pessoas agora usam chatbots de IA em todo o mundo, mas existem alguns riscos e preocupações importantes sobre a privacidade que você deve ter em mente se quiser experimentar uma dessas ferramentas.





1. Coleta de dados

A maioria das pessoas não usa chatbots apenas para dizer oi. Os chatbots modernos são projetados para processar e responder a perguntas e solicitações complexas, e os usuários geralmente incluem muitas informações em seus prompts. Mesmo que você esteja fazendo apenas uma pergunta simples, você realmente não quer que ela vá além da sua conversa.





De acordo com Seção de suporte do OpenAI , você pode excluir os logs de bate-papo do ChatGPT sempre que desejar, e esses logs serão permanentemente eliminados dos sistemas da OpenAI após 30 dias. No entanto, a empresa reterá e revisará determinados registros de bate-papo caso tenham sido sinalizados por conteúdo prejudicial ou impróprio.

Outro chatbot de IA popular, Claude, também monitora suas conversas anteriores. Centro de apoio da Antrópico afirma que Claude rastreia 'seus prompts e resultados no produto para fornecer a você uma experiência consistente com o produto ao longo do tempo, de acordo com seus controles'. Você pode excluir suas conversas com Claude, para que ele esqueça o que você está falando, mas isso não significa que a Anthropic excluirá imediatamente seus registros de seus sistemas.



como adicionar contorno ao texto no photoshop

Isto, claro, levanta a questão: os meus dados estão a ser guardados ou não? O ChatGPT ou outros chatbots utilizam meus dados?

Mas as preocupações não param por aqui.





Como o ChatGPT aprende?

Para fornecer informações, grandes modelos de linguagem são treinados com grandes quantidades de dados. De acordo com Foco Científico , Somente o ChatGPT-4 recebeu 300 bilhões de palavras de informação durante seu período de treinamento. Isso não foi tirado diretamente de algumas enciclopédias. Em vez disso, os desenvolvedores de chatbot usam grandes quantidades de informações da Internet para treinar seus modelos. Isso pode incluir dados de livros, filmes, artigos, entradas da Wikipedia, postagens de blogs, comentários e até mesmo sites de resenhas.

Tenha em mente que, dependendo da política de privacidade do desenvolvedor do chatbot, algumas das fontes mencionadas acima não podem ser utilizadas no treinamento.





Muitos criticaram o ChatGPT, alegando que é uma espécie de pesadelo em termos de privacidade, que ChatGPT não é confiável . Então por que é esse o caso?

É aqui que as coisas ficam um pouco confusas. Se você perguntar diretamente ao ChatGPT-3.5 se ele tem acesso a análises de produtos ou comentários de artigos, você receberá uma negativa firme. Como você pode ver na captura de tela abaixo, o GPT-3.5 afirma que não teve acesso a comentários de artigos de usuários ou análises de produtos em seu treinamento.

  captura de tela da conversa chatgpt-3.5

Em vez disso, foi treinado usando “uma variedade diversificada de textos da Internet, incluindo sites, livros, artigos e outros materiais escritos disponíveis publicamente até setembro de 2021”.

Mas o caso é o mesmo para o GPT-4?

Quando perguntamos ao GPT-4, fomos informados de que “a OpenAI não usou análises específicas de usuários, dados pessoais ou comentários de artigos” no período de treinamento do chatbot. Além disso, o GPT-4 nos disse que suas respostas são geradas a partir de “padrões nos dados nos quais foi treinado, que consistem principalmente em livros, artigos e outros textos da Internet”.

Quando investigamos mais a fundo, o GPT-4 afirmou que determinados conteúdos de mídia social podem, de fato, ser incluídos em seus dados de treinamento, mas os criadores permanecerão sempre anônimos. O GPT-4 declarou especificamente que “Mesmo que o conteúdo de plataformas como o Reddit fizesse parte dos dados de treinamento, [ele não] tem acesso a comentários, postagens ou quaisquer dados específicos que possam ser vinculados a um usuário individual”.

Outra parte notável da resposta do GPT-4 é a seguinte: “OpenAI não listou explicitamente todas as fontes de dados usadas”. É claro que seria difícil para a OpenAI listar fontes no valor de 300 bilhões de palavras, mas isso deixa espaço para especulações.

Em um Artigo da Ars Technica , foi declarado que o ChatGPT coleta “informações pessoais obtidas sem consentimento”. No mesmo artigo, foi mencionada integridade contextual, conceito que se refere à utilização apenas da informação de alguém no contexto em que foi inicialmente utilizada. Se o ChatGPT violar esta integridade contextual, os dados das pessoas poderão estar em risco.

Outro ponto de preocupação aqui é a conformidade da OpenAI com o Regulamento Geral de Proteção de Dados (RGPD) . Este é um regulamento aplicado pela União Europeia para proteger os dados dos cidadãos. Vários países europeus, incluindo Itália e Polónia, iniciaram investigações sobre o ChatGPT devido a preocupações em torno da sua conformidade com o GDPR. Por um curto período, o ChatGPT foi banido na Itália devido a preocupações com a privacidade.

A OpenAI ameaçou sair da UE no passado devido a regulamentações planejadas de IA, mas desde então isso foi retirado.

ChatGPT pode ser o maior chatbot de IA da atualidade, mas os problemas de privacidade do chatbot não começam e terminam com este provedor. Se você estiver usando um chatbot obscuro com uma política de privacidade sem brilho, suas conversas poderão ser mal utilizadas ou informações altamente confidenciais poderão ser usadas em seus dados de treinamento.

2. Roubo de dados

Como qualquer ferramenta ou plataforma online, os chatbots são vulneráveis ​​ao crime cibernético. Mesmo que um chatbot faça tudo o que pode para proteger os utilizadores e os seus dados, há sempre uma hipótese de um hacker experiente conseguir infiltrar-se nos seus sistemas internos.

Se um determinado serviço de chatbot armazenasse suas informações confidenciais, como detalhes de pagamento de sua assinatura premium, dados de contato ou similares, elas poderiam ser roubadas e exploradas se ocorresse um ataque cibernético.

posso baixar jogos de ps3 em ps4

Isto é especialmente verdadeiro se você estiver usando um chatbot menos seguro, cujos desenvolvedores não investiram em proteção de segurança adequada. Não apenas os sistemas internos da empresa podem ser hackeados, mas sua própria conta corre o risco de ser comprometida se não tiver alertas de login ou uma camada de autenticação.

Agora que os chatbots de IA são tão populares, os cibercriminosos naturalmente passaram a usar essa indústria para seus golpes. Sites e plug-ins falsos do ChatGPT têm sido um grande problema desde que o chatbot da OpenAI se tornou popular no final de 2022, com pessoas caindo em golpes e divulgando informações pessoais sob o pretexto de legitimidade e confiança.

Em março de 2023, MUO relatou sobre um extensão ChatGPT falsa do Chrome roubando logins do Facebook . O plug-in pode explorar um backdoor do Facebook para hackear contas importantes e roubar cookies de usuários. Este é apenas um exemplo de vários serviços ChatGPT falsos projetados para enganar vítimas desconhecidas.

3. Infecção por malware

Se você estiver usando um chatbot obscuro sem perceber, poderá encontrar o chatbot fornecendo links para sites maliciosos. Talvez o chatbot tenha alertado você sobre uma oferta tentadora ou fornecido uma fonte para uma de suas declarações. Se os operadores do serviço tiverem intenções ilícitas, o objetivo da plataforma pode ser espalhar malware e golpes por meio de links maliciosos.

Alternativamente, os hackers podem comprometer um serviço legítimo de chatbot e usá-lo para espalhar malware. Se esse chatbot for muito humano, milhares ou até milhões de usuários ficarão expostos a esse malware. Aplicativos ChatGPT falsos já estiveram na Apple App Store , então é melhor agir com cuidado.

Em geral, você nunca deve clicar em nenhum link fornecido por um chatbot antes executando-o através de um site de verificação de links . Isso pode parecer irritante, mas é sempre melhor ter certeza de que o site para o qual você está sendo direcionado não possui um design malicioso.

Além disso, você nunca deve instalar plug-ins e extensões de chatbot sem primeiro verificar sua legitimidade. Faça uma pequena pesquisa sobre o aplicativo para ver se ele foi bem revisado e também faça uma pesquisa no desenvolvedor do aplicativo para ver se você encontra algo obscuro.

Chatbots não são imunes a questões de privacidade

Como a maioria das ferramentas online hoje em dia, os chatbots têm sido repetidamente criticados pelas suas possíveis armadilhas de segurança e privacidade. Seja um provedor de chatbot economizando no que diz respeito à segurança do usuário ou os riscos contínuos de ataques cibernéticos e golpes, é crucial que você saiba o que seu serviço de chatbot está coletando sobre você e se ele empregou medidas de segurança adequadas.