La Inteligencia Artificial (IA) está en todas partes y probablemente ya la uses todos los días. ¿Ese chatbot con el que estás hablando sobre tu paquete perdido? Está impulsado por IA conversacional. ¿Los artículos "recomendados" alineados en sus compras de Amazon que trae con más frecuencia? Por algoritmos de IA o machine learning (aprendizaje automático). Incluso puedes utilizar la IA generativa para ayudarte a escribir tus publicaciones o correos electrónicos de LinkedIn.

Pero, ¿dónde está el límite? Cuando la IA aborda tareas monótonas y repetitivas, así como investiga y crea contenido a un ritmo mucho más rápido de lo que podría hacerlo cualquier humano, ¿por qué necesitaríamos a los humanos? ¿Es realmente necesario el "elemento humano" para que una empresa funcione? Profundicemos en los beneficios, desafíos y riesgos relacionados con la mejor persona (¿o entidad?) para el trabajo: ¿robot o humano?

Por qué funciona la IA

La IA tiene el poder de optimizar los procesos empresariales y reducir el tiempo dedicado a tareas que pueden disminuir la productividad general de los empleados y el rendimiento empresarial durante su jornada laboral. Las empresas ya están adoptando la IA para múltiples funciones, ya sea revisando currículos para solicitudes de empleo, identificando anomalías en los conjuntos de datos de los clientes o escribiendo contenido para las redes sociales.

Y pueden hacer todo esto en una fracción del tiempo que les tomaría a los humanos. En circunstancias en las que el diagnóstico y la intervención tempranos lo son todo, el despliegue de la IA puede tener un impacto enormemente positivo en el análisis de casos clínicos.

Gracias a su capacidad para descubrir patrones en grandes cantidades de datos, las tecnologías de IA también pueden apoyar el trabajo de los organismos encargados de hacer cumplir la ley, incluso ayudándoles a identificar y predecir las posibles escenas y tendencias del crimen. Las herramientas impulsadas por la IA también tienen un papel que desempeñar en la lucha contra la delincuencia y otras amenazas en el ámbito en línea y en ayudar a los profesionales de la ciberseguridad a hacer su trabajo de manera más efectiva.

La capacidad de la IA para ahorrar dinero y tiempo a las empresas no es nada nuevo. Piénsalo: cuanto menos tiempo dediquen los empleados a tareas tediosas como escanear documentos y cargar datos, más tiempo podrán dedicar a la estrategia empresarial y al crecimiento. En algunos casos, es posible que los contratos a tiempo completo ya no sean necesarios, por lo que la empresa gastaría menos dinero en gastos generales (comprensiblemente, esto no es bueno para las tasas de empleo).

Los sistemas basados en IA también pueden ayudar a eliminar el riesgo de error humano.  Se dice que "errar es humano" por una razón. Todos podemos cometer errores, especialmente después de cinco cafés, solo tres horas de sueño y una fecha límite inminente por delante. Los sistemas basados en IA pueden funcionar las 24 horas del día sin cansarse nunca. En cierto modo, tienen un nivel de fiabilidad que no se obtiene ni con el ser humano más detallista y metodológico.

Las limitaciones de la IA

Sin embargo, mirando más de cerca, las cosas se complican un poco más. Sí, los sistemas de IA pueden minimizar los errores asociados con la fatiga y la distracción, pero no son infalibles. La IA también puede cometer errores y "alucinar"; es decir, lanzar falsedades mientras lo presenta como si fuera correcto, especialmente si hay problemas con los datos con los que se entrenó o con el propio algoritmo. En otras palabras, los sistemas de IA son tan buenos como los datos con los que se entrenan (lo que requiere experiencia y supervisión humanas).

Si bien los humanos pueden afirmar ser objetivos, todos somos susceptibles a sesgos inconscientes basados en nuestras propias experiencias vividas, y es difícil, incluso imposible, desactivar eso. La IA no crea sesgos inherentes; más bien, puede amplificar los sesgos existentes presentes en los datos con los que se entrena. Dicho de otro modo, una herramienta de IA entrenada con datos limpios e imparciales puede producir resultados puramente basados en datos y curar la toma de decisiones humana sesgada. Dicho esto, esto no es poca cosa y garantizar la equidad y la objetividad en los sistemas de IA requiere un esfuerzo continuo en la curación de datos, el diseño de algoritmos y el monitoreo continuo.

Un estudio de 2022 mostró que el 54% de los líderes tecnológicos declararon estar muy o extremadamente preocupados por el sesgo de la IA. Ya hemos visto las consecuencias desastrosas que el uso de datos sesgados puede tener en las empresas. Por ejemplo, a partir del uso de conjuntos de datos de sesgo de una compañía de seguros de automóvil en Oregón, a las mujeres se les cobra aproximadamente un 11.4% más por su seguro de automóvil que a los hombres, ¡incluso si todo lo demás es exactamente igual! Esto puede conducir fácilmente a una reputación dañada y a la pérdida de clientes.

Dado que la IA se alimenta de extensos conjuntos de datos, esto plantea la cuestión de la privacidad. Cuando se trata de datos personales, los actores con intenciones maliciosas pueden encontrar formas de eludir los protocolos de privacidad y acceder a estos datos. Si bien hay formas de crear un entorno de datos más seguro en estas herramientas y sistemas, las organizaciones aún deben estar atentas a cualquier brecha en su ciberseguridad con esta superficie de datos adicional que implica la IA.

Otro punto a considerar es que la IA no puede entender las emociones de la forma en que lo hacen (la mayoría) de los humanos. Los humanos al otro lado de una interacción con la IA pueden sentir una falta de empatía y comprensión que podrían obtener de una interacción "humana" real y esto puede afectar la experiencia del cliente/usuario. Un ejemplo de esto ocurrió con el juego World of Warcraft, que perdió millones de jugadores al reemplazar a su equipo de servicio al cliente, que solía ser personas reales que incluso entraban en el juego para mostrar a los jugadores cómo realizar acciones, con bots de IA que carecen de ese humor y empatía.

Por otro lado, con su conjunto de datos limitado, la falta de contexto de la IA puede causar problemas en torno a la interpretación de los datos. Por ejemplo, los expertos en ciberseguridad pueden tener un conocimiento previo de un actor de amenazas específico, lo que les permite identificar y marcar señales de advertencia que una máquina puede no tener si no se alinea perfectamente con su algoritmo programado. Son estos intrincados matices los que tienen el potencial de tener enormes consecuencias en el futuro, tanto para la empresa como para sus clientes.

Por lo tanto, mientras que la IA puede carecer de contexto y comprensión de sus datos de entrada, los humanos carecen de comprensión de cómo funcionan sus sistemas de IA. Cuando la IA opera en "cajas negras", no hay transparencia sobre cómo o por qué la herramienta ha dado lugar a los resultados o decisiones que ha proporcionado. Ser incapaz de identificar el "funcionamiento" entre bastidores puede hacer que la gente cuestione su validez. Además, si algo sale mal o sus datos de entrada están envenenados, este escenario de "caja negra" dificulta la identificación, gestión y resolución del problema.

¿Por qué necesitamos a las personas?

Los humanos no son perfectos. Pero cuando se trata de hablar y resonar con la gente y tomar decisiones estratégicas importantes, ¿seguro que los humanos son los mejores candidatos para el trabajo?

A diferencia de la IA, las personas pueden adaptarse a situaciones cambiantes y pensar de manera creativa. Sin las reglas predefinidas, los conjuntos de datos limitados y las indicaciones que utiliza la IA, los humanos pueden usar su iniciativa, conocimiento y experiencias pasadas para enfrentar desafíos y resolver problemas en tiempo real.

Esto es particularmente importante cuando se toman decisiones éticas y se equilibran los objetivos comerciales (o personales) con el impacto social. Por ejemplo, es posible que las herramientas de IA utilizadas en los procesos de contratación no tengan en cuenta las implicaciones más amplias de rechazar candidatos basándose en sesgos algorítmicos, y las consecuencias adicionales que esto podría tener en la diversidad y la inclusión en el lugar de trabajo.

Dado que los resultados de la IA se crean a partir de algoritmos, también corren el riesgo de ser formulados. Considere la IA generativa utilizada para escribir blogs, correos electrónicos y subtítulos de redes sociales: las estructuras de oraciones repetitivas pueden hacer que el texto sea torpe y menos atractivo de leer. Lo más probable es que el contenido escrito por humanos tenga más matices, perspectiva y, seamos sinceros, personalidad. Especialmente para los mensajes de la marca y el tono de voz, puede ser difícil imitar el estilo de comunicación de una empresa utilizando los estrictos algoritmos que sigue la IA.

Teniendo esto en cuenta, aunque la IA podría ser capaz de proporcionar una lista de posibles nombres de marca, por ejemplo, son las personas detrás de la marca las que realmente entienden a sus audiencias y sabrán qué resonaría mejor. Y con la empatía humana y la capacidad de "leer la habitación", los humanos pueden conectarse mejor con los demás, fomentando relaciones más sólidas con clientes, socios y partes interesadas. Esto es particularmente útil en el servicio al cliente. Como se mencionó más adelante, un mal servicio al cliente puede llevar a la pérdida de lealtad y confianza a la marca.

Por último, pero no menos importante, los humanos pueden adaptarse rápidamente a las condiciones cambiantes. Si necesita una declaración urgente de la empresa sobre un evento reciente o necesita alejarse del mensaje específico de una campaña, necesita un humano. La reprogramación y actualización de las herramientas de IA lleva tiempo, lo que puede no ser apropiado en determinadas situaciones.

¿Cuál es la respuesta?

El enfoque más eficaz para la ciberseguridad no es confiar únicamente en la IA o en los humanos, sino utilizar los puntos fuertes de ambos. Esto podría significar el uso de la IA para manejar el análisis y el procesamiento de datos a gran escala, al tiempo que se confía en la experiencia humana para la toma de decisiones, la planificación estratégica y las comunicaciones. La IA debe usarse como una herramienta para ayudar y mejorar a su fuerza laboral, no para reemplazarla.

La IA se encuentra en el corazón de los productos de ESET, lo que permite a nuestros expertos en ciberseguridad centrar su atención en crear las mejores soluciones para los clientes de ESET. Descubre cómo ESET aprovecha la IA y el aprendizaje automático para mejorar la detección, investigación y respuesta a amenazas.