A Inteligência Artificial (IA) está em toda parte e você provavelmente já a utiliza todos os dias. Aquele chatbot com o qual você está interagindo para resolver o problema do pacote perdido? É alimentado por IA conversacional. Os produtos "recomendados" que você vê ao comprar na Amazon com base em suas preferências anteriores? Também são resultado de IA e algoritmos de aprendizado de máquina. Você pode até estar usando IA generativa para auxiliá-lo na redação de suas postagens ou e-mails no LinkedIn.
Mas onde está o limite? Quando a IA assume tarefas monótonas e repetitivas, além de pesquisar e criar conteúdo em um ritmo muito mais rápido do que qualquer ser humano poderia, surge a questão: por que precisaríamos de humanos? O "elemento humano" é realmente indispensável para o funcionamento de uma empresa? Vamos explorar os benefícios, desafios e riscos envolvidos na escolha entre robôs e humanos para o trabalho.
Por que a IA funciona?
A IA tem o poder de otimizar os processos de negócios e reduzir o tempo gasto em tarefas que podem diminuir a produtividade geral dos funcionários e o desempenho dos negócios durante o dia de trabalho. As empresas já estão adotando a IA para várias funções, seja para analisar currículos para candidaturas a empregos, identificar anomalias em conjuntos de dados de clientes ou escrever conteúdo para redes sociais.
E elas podem realizar todas essas tarefas em uma fração do tempo que os humanos levariam. Em situações onde o diagnóstico e intervenção precoce são cruciais, a implementação da IA pode ter um impacto extremamente positivo na análise de casos clínicos.
Graças à sua capacidade de identificar padrões em grandes volumes de dados, as tecnologias de IA também podem apoiar o trabalho da polícia, ajudando a identificar e prever possíveis cenários e tendências criminais. Além disso, as ferramentas baseadas em IA desempenham um papel crucial no combate ao crime e outras ameaças on-line, auxiliando os profissionais de cibersegurança a executar suas funções com maior eficiência.
A capacidade da IA de economizar tempo e dinheiro para as empresas não é novidade. Considere o seguinte: quanto menos tempo os funcionários gastarem em tarefas tediosas, como digitalização de documentos e upload de dados, mais tempo terão para se concentrar em estratégia e no crescimento dos negócios. Em alguns casos, isso pode até reduzir a necessidade de contratações em tempo integral, diminuindo os custos gerais da empresa (embora isso possa impactar negativamente as taxas de emprego).
Os sistemas baseados em IA também podem ajudar a eliminar o risco de erro humano. Diz-se que "errar é humano" por um motivo. Todos nós podemos cometer erros, especialmente depois de cinco cafés, apenas três horas de sono e um prazo iminente pela frente. Os sistemas baseados em IA podem funcionar 24 horas por dia sem nunca se cansar. De certa forma, eles têm um nível de confiabilidade que nem mesmo o ser humano mais detalhista e metodológico consegue alcançar.
As limitações da IA
Em uma análise mais aprofundada, as coisas se tornam um pouco mais complexas. Embora os sistemas de IA possam reduzir os erros associados à fadiga e distração humanas, eles não são infalíveis. A IA também pode cometer erros e até mesmo produzir resultados incorretos, especialmente se houver problemas com os dados nos quais foi treinada ou com o algoritmo em si. Em resumo, os sistemas de IA são tão eficazes quanto os dados com os quais são alimentados, o que requer supervisão e conhecimento humanos.
Embora os seres humanos possam afirmar que são objetivos, todos nós somos suscetíveis a vieses inconscientes baseados em nossas próprias experiências de vida, e é difícil, se não impossível, eliminar completamente esses vieses. A IA não cria vieses intrínsecos; pelo contrário, pode amplificar os vieses existentes nos dados em que é treinada. Em outras palavras, uma ferramenta de IA treinada com dados limpos e imparciais pode gerar resultados puramente baseados em dados e ajudar a mitigar decisões humanas tendenciosas. No entanto, alcançar justiça e objetividade nos sistemas de IA requer um esforço contínuo na curadoria de dados, no design de algoritmos e na vigilância constante.
Um estudo de 2022 mostrou que 54% dos líderes de tecnologia relataram estar muito ou extremamente preocupados com o viés da IA. Já vimos as consequências desastrosas que o uso de dados tendenciosos pode ter para as empresas. Por exemplo, com o uso de conjuntos de dados tendenciosos de uma empresa de seguros de automóveis no Oregon, as mulheres pagam aproximadamente 11,4% a mais pelo seguro de seus carros do que os homens, mesmo que todo o resto seja exatamente igual. Isso pode facilmente levar a uma reputação prejudicada e à perda de clientes.
Como a IA depende de conjuntos de dados extensos, surge a preocupação com a privacidade. Quando se trata de dados pessoais, cibercriminosos podem buscar formas de contornar os protocolos de privacidade e acessar essas informações. Embora existam métodos para criar ambientes de dados mais seguros em ferramentas e sistemas de IA, as organizações devem permanecer vigilantes contra potenciais violações de segurança cibernética decorrentes dessa expansão na superfície de dados envolvendo IA.
Outro ponto a considerar é que a IA não consegue compreender as emoções da mesma forma que a maioria dos humanos. Os indivíduos do outro lado de uma interação com a IA podem sentir a falta de empatia e compreensão que normalmente obteriam em uma interação humana real, o que pode afetar a experiência do cliente ou usuário. Um exemplo disso ocorreu com o jogo World of Warcraft, que perdeu milhões de jogadores ao substituir sua equipe de atendimento ao cliente, formada por pessoas reais que até entravam no jogo para orientar os jogadores, por bots de IA que não conseguiam replicar o humor e a empatia humanos.
Por outro lado, devido ao seu conjunto de dados limitado, a IA pode enfrentar dificuldades na interpretação dos dados sem o contexto adequado. Por exemplo, especialistas em cibersegurança podem ter conhecimento prévio sobre uma ameaça específica, permitindo-lhes identificar e sinalizar sinais de alerta que uma máquina pode não detectar se não estiver perfeitamente alinhada com o algoritmo programado. São essas nuances complexas que podem ter grandes consequências no futuro, tanto para a empresa quanto para seus clientes.
Portanto, embora a IA possa carecer de contexto e compreensão dos dados de entrada, os seres humanos também enfrentam desafios ao entender como seus sistemas de IA operam. Quando a IA funciona como uma "caixa preta", não há transparência sobre como ou por que a ferramenta produziu os resultados ou tomou decisões. A falta de visibilidade nos bastidores pode gerar dúvidas sobre sua validade. Além disso, se algo der errado ou se os dados de entrada forem comprometidos, a natureza opaca da "caixa preta" dificulta a identificação, o gerenciamento e a resolução do problema.
Por que precisamos de pessoas?
Os seres humanos não são perfeitos. Mas quando se trata de conversar e se relacionar com as pessoas e tomar decisões estratégicas importantes, certamente os humanos são os melhores candidatos para o trabalho.
Ao contrário da IA, as pessoas podem se adaptar a situações variáveis e pensar de forma criativa. Sem as regras predefinidas, os conjuntos de dados limitados e os avisos que a IA usa, os seres humanos podem usar sua iniciativa, seu conhecimento e suas experiências anteriores para enfrentar desafios e resolver problemas em tempo real.
Isso é particularmente importante ao tomar decisões éticas e equilibrar metas comerciais (ou pessoais) com o impacto social. Por exemplo, as ferramentas de IA usadas em processos de recrutamento podem não levar em conta as implicações mais amplas da rejeição de candidatos com base em vieses algorítmicos e as consequências adicionais que isso poderia ter sobre a diversidade e a inclusão no local de trabalho.
Como os resultados da IA são criados a partir de algoritmos, eles também correm o risco de serem estereotipados. Considere a IA generativa usada para escrever blogs, e-mails e legendas de redes sociais: estruturas de frases repetitivas podem tornar o texto confuso e menos atraente para a leitura. É mais provável que o conteúdo escrito por humanos tenha mais nuances, perspectivas e, convenhamos, personalidade. Especialmente para mensagens de marca e tom de voz, pode ser difícil imitar o estilo de comunicação de uma empresa usando os algoritmos rígidos que a IA segue.
Com isso em mente, embora a IA possa fornecer uma lista de possíveis nomes de marcas, por exemplo, são as pessoas por trás da marca que realmente compreendem seu público e sabem o que ressoará melhor. Com a empatia humana e a capacidade de "ler o ambiente", os humanos podem se conectar de maneira mais significativa com os outros, promovendo relacionamentos mais fortes com clientes, parceiros e partes interessadas. Isso é especialmente valioso no atendimento ao cliente, onde um mau serviço pode resultar na perda de fidelidade e confiança na marca.
Por último, mas não menos importante, os seres humanos têm a capacidade de se adaptar rapidamente às mudanças nas circunstâncias. Se precisar de uma declaração urgente da empresa sobre um evento recente ou ajustar uma mensagem de campanha específica, é essencial contar com a intervenção humana. Reprogramar e atualizar ferramentas de IA pode ser demorado, o que pode não ser adequado em certas situações urgentes.
E o que fazer diante desse cenário?
A abordagem mais eficaz para a cibersegurança não é depender exclusivamente de IA ou de humanos, mas sim aproveitar os pontos fortes de ambos. Isso significa utilizar a IA para lidar com a análise e o processamento de dados em grande escala, enquanto se confia na experiência humana para a tomada de decisões, o planejamento estratégico e as comunicações. A IA deve ser vista como uma ferramenta para auxiliar e fortalecer a força de trabalho, não para substituí-la.
A IA está no centro dos produtos da ESET, permitindo que nossos especialistas em cibersegurança concentrem seus esforços na criação das melhores soluções para os clientes da ESET. Clique aqui e saiba como a ESET utiliza a IA e o aprendizado de máquina para aprimorar a detecção, investigação e resposta a ameaças.