Observamos a evolução da Inteligência Artificial (IA) desde responder perguntas simples de um chat para o dever de casa até tentar detectar armas no metrô de Nova York e, agora, ser considerada cúmplice na condenação de um criminoso que a utilizou para criar material falso de abuso sexual infantil (CSAM) a partir de fotos e vídeos reais, chocando aqueles que apareciam nas imagens originais (totalmente vestidos).
À medida que a IA continua avançando rapidamente, muitas pessoas estão buscando implementar proteções mais significativas para evitar que ela seja usada de maneira prejudicial.
Há anos, usamos a IA em contextos de segurança, mas sempre avisamos que ela não era uma solução milagrosa, em parte porque comete erros em aspectos críticos. No entanto, um software de segurança que "apenas ocasionalmente" erra em aspectos essenciais ainda pode ter um impacto bastante negativo, seja emitindo falsos positivos em massa, desorganizando equipes de segurança desnecessariamente, seja não detectando um ataque que pareça "suficientemente diferente" do malware que a IA já conhece.
É por isso que integramos a IA com uma série de outras tecnologias para fornecer verificações e equilíbrios. Dessa forma, se a resposta da IA parecer uma distorção digital, podemos reavaliar usando o restante da pilha de tecnologias.
Embora os adversários não tenham lançado muitos ataques puramente baseados em IA, é mais correto pensar na IA adversária automatizando partes da cadeia de ataque para ser mais eficaz, especialmente no phishing e, agora, na clonagem de voz e imagem para amplificar os esforços de engenharia social. Se os cibercriminosos conseguirem ganhar confiança digitalmente e enganar os sistemas para se autenticarem usando dados gerados por IA, isso pode ser suficiente para invadir uma organização e lançar ferramentas de exploração personalizadas manualmente.
Para evitar isso, os fornecedores podem implementar a autenticação multifator, exigindo que os invasores usem vários métodos de autenticação, em vez de apenas uma voz ou senha. Embora essa tecnologia esteja agora amplamente implementada, ainda é bastante subutilizada pelos usuários. Esta é uma maneira simples de os usuários se protegerem sem muito esforço ou grande orçamento.
A culpa é da IA?
Quando pedimos uma justificativa para os erros da IA, as respostas geralmente são: "é complicado". Mas, à medida que a IA se aproxima da capacidade de causar danos físicos e impactar o mundo real, essa resposta não é mais satisfatória. Por exemplo, se um carro autônomo movido a IA se envolver em um acidente, o "motorista" deve ser multado ou o fabricante? Essa não é uma explicação que provavelmente satisfará um tribunal, por mais complicada e opaca que seja.
E quanto à privacidade?
Vimos que as regras da LGPD e a GDPR restringem a tecnologia descontrolada sob a ótica da privacidade. Certamente, obras originais derivadas de IA, fatiadas e modificadas para produzir derivados visando lucro, infringem o espírito da privacidade e, portanto, acionariam leis de proteção. Mas quanto exatamente a IA precisa copiar para ser considerada derivada? E se ela copiar apenas o suficiente para burlar a legislação?
Além disso, como alguém pode provar isso em um tribunal, com uma jurisprudência ainda escassa que levará anos para ser melhor testada legalmente? Vemos editores de jornais processando a Microsoft e a OpenAI por acreditarem que essas empresas estão reutilizando artigos sem o devido crédito; será interessante ver o resultado desses litígios, que talvez sejam um prenúncio de futuras ações judiciais.
Enquanto isso, a IA é uma ferramenta - e muitas vezes uma excelente ferramenta - mas com grande poder vem grande responsabilidade. Atualmente, a responsabilidade dos provedores de IA está muito aquém do que é necessário se quisermos evitar que esse poder recém-descoberto se torne perigoso.
Leia mais: A inteligência artificial e seu papel na segurança cibernética