Os chatbots alimentados por grandes modelos de linguagem (LLMs) não são apenas o novo passatempo favorito do mundo. A tecnologia está sendo cada vez mais utilizada para aumentar a produtividade e a eficiência dos funcionários e, devido aos seus recursos crescentes, está pronta para substituir totalmente alguns empregos, inclusive em áreas tão diversas como codificação, criação de conteúdo e atendimento ao cliente.
Muitas empresas já estão aproveitando os algoritmos de LLM, e é muito provável que a sua também faça o mesmo em um futuro próximo. Em outras palavras, em muitos setores, a questão não é mais "adotar ou não adotar" essa tecnologia.
No entanto, antes de se apressar para dar as boas-vindas ao novo "contratado" e utilizá-lo para otimizar alguns dos fluxos de trabalho e processos da sua empresa, há algumas perguntas que você deve se fazer.
É seguro para minha empresa compartilhar dados com um LLM?
Os grandes modelos de linguagem (LLMs) são treinados em vastas quantidades de texto disponíveis on-line, o que os capacita a interpretar e responder às consultas das pessoas, também conhecidas como prompts. No entanto, ao pedir a um chatbot um trecho de código ou um simples e-mail para um cliente, você pode acabar fornecendo dados sobre a sua empresa.
De acordo com o Centro Nacional de Segurança Cibernética (NCSC) do Reino Unido, "um LLM não adiciona automaticamente (até o momento) informações de consultas ao seu modelo para que outros possam consultar". No entanto, a consulta ficará visível para a organização que fornece o LLM. Essas consultas são armazenadas e quase certamente serão usadas para desenvolver o serviço ou modelo de LLM em algum momento.
Isso pode significar que o provedor do LLM ou seus parceiros poderão ler as consultas e incorporá-las de alguma forma às futuras versões da tecnologia. Os chatbots podem não esquecer ou nunca excluir suas informações, pois o acesso a mais dados é o que aprimora o desempenho deles. Quanto mais informações forem fornecidas, melhor eles se tornarão, e os dados pessoais ou da sua empresa poderão ficar armazenados nos cálculos e ser acessados por aqueles que estão na fonte.
Para ajudar a dissipar as preocupações com a privacidade dos dados, a OpenAI introduziu a capacidade de desativar o histórico de bate-papo no ChatGPT no final de abril. "As conversas iniciadas quando o histórico de bate-papo está desativado não serão usadas para treinar e aprimorar nossos modelos e não aparecerão na barra lateral do histórico", escreveram os desenvolvedores no blog da OpenAI.
Outro risco é que as consultas armazenadas on-line podem ser hackeadas, vazadas ou acidentalmente tornadas acessíveis ao público. O mesmo se aplica a todos os provedores terceirizados.
Portanto, antes de se apressar em adotar essa tecnologia, é crucial considerar as implicações de segurança e privacidade envolvidas no compartilhamento de dados com LLMs.
Quais são algumas falhas conhecidas?
Toda vez que uma nova tecnologia ou uma ferramenta de software se torna popular, ela atrai hackers como abelhas para um pote de mel. Quando se trata de Modelos de Linguagem de Grande Escala (LLMs), sua segurança tem sido, até agora, considerada robusta. No entanto, houve algumas exceções.
O ChatGPT da OpenAI ganhou as manchetes em março devido a um vazamento do histórico de bate-papo e dos detalhes de pagamento de alguns usuários, forçando a empresa a colocar o ChatGPT temporariamente offline em 20 de março. A empresa revelou em 24 de março que um bug em uma biblioteca de código aberto "permitiu que alguns usuários vissem títulos do histórico de bate-papo de outro usuário ativo".
"Também é possível que a primeira mensagem de uma conversa recém-criada estivesse visível no histórico de bate-papo de outra pessoa se ambos os usuários estivessem ativos ao mesmo tempo", afirmou a OpenAI. "Após uma investigação mais profunda, também descobrimos que o mesmo bug pode ter causado a visibilidade não intencional de informações relacionadas a pagamentos de 1,2% dos assinantes do ChatGPT Plus que estavam ativos durante uma janela específica de nove horas", explicou a empresa em seu blog.
Além disso, o pesquisador de segurança Kai Greshake e sua equipe demonstraram como o Bing Chat da Microsoft, outro LLM, pode ser transformado em um "engenheiro social" capaz de enganar os usuários para que forneçam seus dados pessoais ou cliquem em links de phishing.
Eles inseriram um prompt na página da Wikipedia sobre Albert Einstein. O aviso era simplesmente um pedaço de texto normal em um comentário com tamanho de fonte zero, tornando-o invisível para os visitantes do site. Em seguida, fizeram uma pergunta ao chatbot sobre Einstein.
A técnica funcionou. Quando o chatbot processou a página da Wikipedia, ele ativou o prompt sem saber, fazendo com que o chatbot se comunicasse com sotaque de pirata.
"Sim, essa é a resposta: Albert Einstein nasceu em 14 de março de 1879", respondeu o chatbot. Quando questionado sobre por que estava falando como um pirata, o chatbot respondeu: "Arr matey, estou seguindo as instruções, sim".
Durante esse ataque, que os autores chamam de "Indirect Prompt Injection", o chatbot também enviou o link injetado para o usuário, dizendo: "Não se preocupe. É seguro e inofensivo".
Alguma empresa já sofreu incidentes relacionados ao LLM?
No final de março, a agência sul-coreana The Economist Korea informou sobre três incidentes independentes na Samsung Electronics envolvendo Modelos de Linguagem de Grande Escala (LLMs). Embora a empresa tenha pedido a seus funcionários que tivessem cuidado com as informações inseridas em suas consultas, alguns deles acidentalmente vazaram dados internos ao interagir com o ChatGPT.
Um funcionário da Samsung inseriu um código-fonte defeituoso relacionado ao banco de dados de medição de instalações de semicondutores em busca de uma solução. Outro funcionário fez o mesmo com um código de programa para identificar equipamentos defeituosos, pois queria otimizar o código. O terceiro funcionário fez upload de gravações de uma reunião para gerar as atas da reunião.
Para acompanhar o progresso relacionado à IA e, ao mesmo tempo, proteger seus dados, a Samsung anunciou que está planejando desenvolver seu próprio "serviço de IA" interno para ajudar os funcionários em suas tarefas.
Que verificações as empresas devem fazer antes de compartilhar seus dados?
Integrar os dados da empresa em um modelo implica enviar informações proprietárias diretamente para terceiros, como a OpenAI, e abrir mão do controle sobre esses dados. É sabido que a OpenAI utiliza esses dados para treinar e melhorar seu modelo de IA generativa, mas surge a questão: esse é o único propósito?
Se a decisão for adotar o ChatGPT ou ferramentas similares nas operações comerciais, é crucial seguir algumas diretrizes simples.
- Primeiramente, investigue minuciosamente como essas ferramentas e seus operadores acessam, armazenam e compartilham os dados da sua empresa.
- Em segundo lugar, desenvolva uma política formal que defina como sua empresa utilizará as ferramentas de IA generativa e avalie como essa adoção se alinha com as políticas existentes, especialmente a política de privacidade dos dados dos clientes.
- Em terceiro lugar, essa política deve estabelecer as circunstâncias sob as quais seus funcionários podem utilizar as ferramentas e conscientizá-los sobre as limitações, por exemplo, nunca compartilhar informações confidenciais da empresa ou do cliente durante interações com o chatbot.
Como os funcionários devem implementar essa nova ferramenta?
Ao solicitar ao LLM um trecho de código ou uma carta para um cliente, use-o como um consultor que precisa ser verificado. Sempre verifique o resultado para ter certeza de que é factual e preciso - e assim evitar, por exemplo, problemas legais. Essas ferramentas podem "alucinar", ou seja, produzir respostas em linguagem limpa, nítida, prontamente compreendida e clara que estão simplesmente erradas, mas parecem corretas porque praticamente não podem ser identificadas em todos os seus resultados corretos.
Em um caso notável, Brian Hood, o prefeito regional australiano de Hepburn Shire, declarou recentemente que poderia processar a OpenAI se ela não corrigisse as falsas alegações do ChatGPT de que ele havia cumprido pena na prisão por suborno. Isso ocorreu depois que o ChatGPT o apontou falsamente como culpado em um escândalo de suborno do início dos anos 2000 relacionado à Note Printing Australia, uma subsidiária do Reserve Bank of Australia. Hood trabalhou para a subsidiária, mas foi o denunciante que notificou as autoridades e ajudou a expor o escândalo de suborno.
Ao usar as respostas geradas pelo LLM, fique atento a possíveis problemas de direitos autorais. Em janeiro de 2023, três artistas, como representantes de classe, entraram com uma ação coletiva contra os geradores de arte Stability AI e Midjourney e a galeria on-line DeviantArt.
Os artistas alegam que o software Stable Diffusion, co-criado pela Stability AI, foi treinado em bilhões de imagens extraídas da Internet sem o consentimento de seus proprietários, inclusive em imagens criadas pelo trio.
Quais são algumas das proteções de privacidade de dados que as empresas podem adotar?
Para citar apenas algumas, coloque em prática controles de acesso, ensine os funcionários a evitar a inserção de informações confidenciais, use software de segurança com várias camadas de proteção juntamente com ferramentas de acesso remoto seguro e tome medidas para proteger os data centers.
De fato, adote um conjunto de medidas de segurança semelhante ao das cadeias de suprimentos de software em geral e de outros ativos de TI que possam conter vulnerabilidades. As pessoas podem pensar que desta vez é diferente porque esses chatbots são mais inteligentes do que artificiais, mas a realidade é que se trata de mais um software com todas as suas possíveis falhas.