Analizamos la inteligencia artificial: ¿está sobrevalorada?
Es posible que no haya otro tema relacionado con la tecnología que sea más omnipresente (o que genere más expectativas) que la inteligencia artificial (IA). Cuando OpenAI puso la IA a disposición de las masas con el lanzamiento de ChatGPT en noviembre de 2022, el mundo cambió para siempre. Las startups cuya actividad se basa en la IA empezaron a atraer cuantiosas sumas de dinero, las grandes corporaciones tecnológicas, como Microsoft y Apple, corrieron a implantar la IA en sus productos, y todo el mundo se dio cuenta de que la IA era una herramienta tangible.
Ahora, conceptos como la IA generativa, los LLM, el aprendizaje automático y las redes neuronales aparecen en los anuncios de cualquier sector, desde servicios profesionales hasta electrónica de consumo. Incluso existe una tostadora que funciona con IA.
¿Pero qué es la IA exactamente? ¿Y cómo sabemos si se está usando simplemente como concepto que está de moda para vender un producto o si realmente se está utilizando una inteligencia superior? En esta entrada de blog responderemos en detalle a estas preguntas y mucho más: exploraremos las limitaciones de la IA, compartiremos consejos para identificar el AI washing y conoceremos cómo la IA está transformando sectores como el de la ciberseguridad.
Profundizamos en las expectativas que genera la IA: ¿qué puede hacer realmente?
La inteligencia artificial es un área de la informática dedicada a crear sistemas capaces de realizar tareas que normalmente necesitarían la intervención humana. Estos sistemas se pueden programar para que realicen tareas como tomar decisiones, resolver problemas complejos y pensar de forma creativa. Para conseguirlo, la IA se sirve de sofisticados algoritmos y muchísimos datos.
Esta definición general es solo la punta del iceberg. Para comprender mejor qué es y qué no es la IA, vamos a empezar definiendo sus dos categorías más amplias: la inferencia de IA y la IA generativa.
Inferencia de IA
La interfaz de la IA es un tipo de tecnología que se centra en inferir información de contexto como texto, imágenes, audio y vídeo.
Por ejemplo, cuando se le presenta una foto de un gato, esta tecnología puede usar pistas de contexto para identificar correctamente lo que hay en la foto.
Aunque este tipo de IA puede hacer inferencias según la información, no puede generar su propio contenido.
IA generativa
La IA generativaes una tecnología que puede generar nuevo contenido (como texto, imágenes, audio y vídeo) a partir de unas instrucciones.
Por ejemplo, si se le da la instrucción "dibuja un gato", un modelo de IA generativa creará una imagen de un gato.
La inferencia de IA y la IA generativa son dos caras de una misma moneda, siendo esta última más sofisticada. El desarrollo de la IA generativa implica una combinación de aprendizaje automático y entrenamiento de redes neuronales.
Sus componentes: ¿cómo funciona la IA?
Una red neuronal está inspirada en el funcionamiento del cerebro, pero es mucho más simple y práctico. Se trata de una máquina con muchas capas de neuronas artificiales, o nodos, que procesan la información. Cada neurona toma números (la entrada), realiza un cálculo sencillo, y envía el resultado (la salida).
La red aprende ajustando un conjunto de números llamados "pesos". Estos pesos determinan cómo se comporta la red. Durante el aprendizaje supervisado, en la red se introducen datos y cuál es el resultado deseado, que se usa para ajustar los pesos. La red aprende de los fallos mediante la repetición, así que va ajustando los pesos para mejorar las probabilidades de alcanzar el resultado deseado.
El aprendizaje profundo es un subgrupo del aprendizaje automático que surgió cuando aparecieron unidades de procesamiento de gráficos (GPU) más potentes y algoritmos más sofisticados. Presenta muchas más capacidades porque tiene más capas de neuronas. Una cosa importante a tener en cuenta es que "profundo" se refiere al número de capas que tiene una red neuronal: es físicamente más profunda, pero no intelectualmente.
Un conocido ejemplo de un algoritmo de aprendizaje profundo son los modelos de lenguaje de gran tamaño (LLM), como ChatGPT, que están entrenados para comprender y generar texto basado en lenguaje natural. Los LLM toman una secuencia de texto como entrada, y como resultado generan las probabilidades de que aparezca la siguiente palabra en la secuencia, una funcionalidad que ayuda a los chatbots a dar respuestas pertinentes a las preguntas o los comentarios.
Los LLM se entrenan con volúmenes de texto masivos que normalmente se obtienen de Internet. Al igual que ocurre con las redes neuronales, los pesos de los LLM se ajustan mediante un aprendizaje autosupervisado para aumentar las probabilidades de que la siguiente palabra tenga sentido. Los LLM más sofisticados que se usan actualmente se sirven de miles de millones de pesos para ajustar sus resultados.
¿Se trata de IA o de AI washing?
Ahora que ya entendemos los fundamentos del aprendizaje profundo y de los LLM, podemos considerar si un producto en concreto se basa de verdad en la IA o si es tan solo un ejemplo de AI washing.
El AI washing ocurre cuando las empresas afirman de manera engañosa o exagerada que se ha usado la IA en sus productos, en un intento por aumentar la rentabilidad aprovechando las expectativas que ha generado la IA.
Para identificar el AI washing, hágase las siguientes preguntas al evaluar un producto:
¿Requiere este producto una intervención humana significativa para generar un resultado aceptable? La verdadera IA se caracteriza por un alto nivel de autonomía y por ofrecer un resultado aceptable con una intervención humana mínima.
¿La empresa que se encuentra detrás de este producto está siendo transparente sobre los tipos de datos y los algoritmos que utiliza para entrenar su IA? El enfoque de caja negra, que se centra únicamente en las entradas y salidas de un producto en lugar de revelar sus procesos internos, suele ser una señal de alarma de que es posible que la tecnología no sea lo que promete ser.
Por desgracia, hay demasiados casos de empresas que usan el término "IA" para promocionar un producto o servicio que no puede superar el test anterior. Por ello, es importante no quedarse con lo que las empresas afirman al principio y ahondar un poco para determinar si un producto está basado realmente en la IA.
Sesgos y alucinaciones
Hay otros aspectos importantes que se deben tener en cuenta a la hora de evaluar una solución de IA. Las "alucinaciones" son un concepto clave que hay que tener en mente. Las alucinaciones de la IA son resultados falsos, engañosos o que no tienen sentido. Estos resultados incorrectos están causados por varios factores, como el entrenamiento con datos insuficientes o sesgados, por lo que la IA puede hacer suposiciones.
Es importante recordar que los modelos de IA están diseñados para predecir los resultados en función de los datos con los que se entrenan. Por ello, una incorporación de datos incorrectos tendrá, simplemente, resultados incorrectos.
El ciclo de las expectativas que genera la IA
Una manera de comprender las tendencias que van cambiando tan rápido, las falsas promesas y las expectativas demasiado exageradas que conlleva cada nuevo logro de la IA es mediante este gráfico que ha desarrollado Gartner.
En junio, Gartner publicó su 2024 Hype Cycle for Artificial Intelligence, que trata sobre cómo las tecnologías emergentes surgen, maduran y son adoptadas por el público general.
En su primera etapa, una nueva tecnología inicia su período de innovación y va ganando tracción y generando expectativas a medida que llega a la cumbre.
A continuación, la tecnología cae al pozo de la desilusión, donde empieza el trabajo duro. Ya sin la influencia de las expectativas exageradas, la gente empieza a entender las funciones verdaderas de la tecnología y a verle aplicaciones prácticas, haciendo que avance por el ciclo hasta la fase de productividad.
Según Gartner, la IA pasa rápido por el ciclo de las altas expectativas, y la IA generativa está en el pozo de la desilusión. No obstante, pese a este nombre tan melancólico, esta etapa del ciclo es una oportunidad de verdadera innovación en la que se anima a la gente a comprender mejor las limitaciones de la IA y a transformar las promesas en acciones. Un sector en el que esto está ocurriendo ahora mismo es en la ciberseguridad.
La IA en ciberseguridad: el futuro de la detección de amenazas
No cabe duda de que la revolución de la IA ha transformado la ciberseguridad para bien o para mal.
A medida que los modelos de IA son cada vez más sofisticados, también lo son las tácticas que emplean los ciberdelincuentes. Se sirven de la IA generativa para automatizar, mejorar y escalar sus ataques, lo que resulta en que las amenazas son más complicadas de detectar y mitigar.
Sin embargo, la integración de la automatización en ciberseguridad brinda importantes oportunidades, especialmente en el campo de la detección de amenazas. Los profesionales de la ciberseguridad puede utilizar la IA para analizar grandes cantidades de datos mucho más rápido de lo que podrían hacerlo por sí mismos para identificar patrones y detectar anomalías en los comportamientos de los usuarios que podrían señalar posibles amenazas.
La IA también se puede utilizar para optimizar los procesos de respuesta ante incidentes. La IA puede responder a las posibles amenazas en tiempo real llevando a cabo acciones predefinidas automáticamente para responder a las amenazas detectadas, como aislar los sistemas afectados, bloquear el tráfico malicioso, o activar alertas.
Sea realista: menos expectativas y más resultados
Akamai lleva usando IA de aprendizaje profundo para nuestras soluciones desde 2015.
Nuestras herramientas basadas en IA realizan varias tareas esenciales, desde determinar si el tráfico es un bot o un usuario de verdad hasta identificar la usurpación de API y los sitios web fraudulentos. Las soluciones de Akamai llevan aprovechando el aprendizaje automático desde hace casi 10 años, y hoy en día seguimos por este camino incorporando los últimos avances de la IA a nuestros productos cuando vemos que van a suponer una clara ventaja para nuestros clientes.
Nuestro principio fundamental con respecto a la IA es mantener la transparencia sobre cómo y por qué empleamos esta tecnología, asegurándonos de que no exageramos nuestras capacidades ni caemos en el AI washing.
En Akamai nos comprometemos a usar la IA de manera eficaz y con criterio, ampliando poco a poco nuestras capacidades a medida que vamos comprendiéndola mejor. Así es como nos aseguramos de que la IA sea real sin expectativas artificiales.