Imagen de Gerd Altmann en Pixabay
Imagen de Gerd Altmann en Pixabay

Por The Conversation

Interactuar con chatbots de IA como ChatGPT puede ser divertido y, a veces, útil, pero el siguiente nivel de la IA cotidiana va más allá de responder preguntas: los agentes de IA realizan tareas por usted.

Las principales empresas tecnológicas, entre ellas OpenAI , Microsoft , Google y Salesforce , han publicado o anunciado recientemente planes para desarrollar y lanzar agentes de IA. Afirman que estas innovaciones aportarán una nueva eficiencia a los procesos técnicos y administrativos subyacentes a los sistemas utilizados en la atención sanitaria, la robótica, los juegos y otros negocios.

Se puede enseñar a los agentes de inteligencia artificial a responder a preguntas estándar enviadas por correo electrónico. Los más avanzados pueden reservar billetes de avión y de hotel para viajes de negocios transcontinentales. Google presentó recientemente a los periodistas el Proyecto Mariner , una extensión del navegador Chrome que puede razonar sobre el texto y las imágenes que aparecen en la pantalla.

En la demostración, el agente ayudó a planificar una comida añadiendo artículos a un carrito de la compra en el sitio web de una cadena de supermercados, e incluso encontrando sustitutos cuando ciertos ingredientes no estaban disponibles. Aún es necesario que una persona participe para finalizar la compra, pero se puede indicar al agente que realice todos los pasos necesarios hasta ese momento.

En cierto sentido, eres un agente. Realizas acciones en tu mundo todos los días en respuesta a cosas que ves, oyes y sientes. Pero, ¿qué es exactamente un agente de IA? Como científico informático , ofrezco esta definición: los agentes de IA son herramientas tecnológicas que pueden aprender mucho sobre un entorno determinado y luego, con unas pocas indicaciones simples de un humano, trabajar para resolver problemas o realizar tareas específicas en ese entorno.

Reglas y objetivos

Un termostato inteligente es un ejemplo de un agente muy simple. Su capacidad de percibir su entorno se limita a un termómetro que le indica la temperatura. Cuando la temperatura de una habitación desciende por debajo de un determinado nivel, el termostato inteligente responde aumentando la temperatura.

Un predecesor conocido de los agentes de inteligencia artificial actuales es Roomba. El robot aspirador aprende la forma de una sala de estar alfombrada, por ejemplo, y cuánta suciedad hay en la alfombra. Luego toma medidas en función de esa información. Después de unos minutos, la alfombra está limpia.

El termostato inteligente es un ejemplo de lo que los investigadores de IA llaman un agente reflejo simple . Toma decisiones, pero esas decisiones son simples y se basan únicamente en lo que el agente percibe en ese momento. El robot aspirador es un agente basado en objetivos con un único objetivo: limpiar todo el suelo al que puede acceder. Las decisiones que toma (cuándo girar, cuándo subir o bajar los cepillos, cuándo volver a su base de carga) están todas al servicio de ese objetivo.

Un agente basado en objetivos tiene éxito simplemente si logra su objetivo por cualquier medio que sea necesario. Los objetivos se pueden lograr de diversas maneras, aunque algunas de ellas pueden ser más o menos deseables que otras.

Muchos de los agentes de IA actuales se basan en la utilidad , lo que significa que prestan más atención a cómo lograr sus objetivos. Sopesan los riesgos y los beneficios de cada posible enfoque antes de decidir cómo proceder. También son capaces de considerar objetivos que entran en conflicto entre sí y decidir cuál es más importante de alcanzar. Van más allá de los agentes basados ​​en objetivos al seleccionar acciones que tienen en cuenta las preferencias únicas de sus usuarios.

Tomar decisiones, emprender acciones

Cuando las empresas de tecnología se refieren a agentes de IA, no se refieren a chatbots ni a grandes modelos de lenguaje como ChatGPT. Aunque los chatbots que brindan un servicio básico de atención al cliente en un sitio web técnicamente son agentes de IA, sus percepciones y acciones son limitadas. Los agentes de chatbots pueden percibir las palabras que escribe un usuario, pero la única acción que pueden realizar es responder con un texto que, con suerte, ofrezca al usuario una respuesta correcta o informativa.

Los agentes de IA a los que se refieren las empresas de IA son avances significativos respecto de los grandes modelos de lenguaje como ChatGPT porque poseen la capacidad de realizar acciones en nombre de las personas y las empresas que los utilizan.

OpenAI afirma que los agentes pronto se convertirán en herramientas que las personas o las empresas dejarán funcionando de forma independiente durante días o semanas, sin necesidad de comprobar su progreso o resultados. Los investigadores de OpenAI y Google DeepMind afirman que los agentes son otro paso en el camino hacia la inteligencia artificial general o IA «fuerte» , es decir, IA que supera las capacidades humanas en una amplia variedad de dominios y tareas.

Los sistemas de IA que utilizamos hoy en día se consideran IA limitada o IA “débil” . Un sistema puede ser experto en un dominio (ajedrez, por ejemplo) pero, si se lo pone a jugar a las damas, no tendría idea de cómo funcionar porque sus habilidades no se trasladarían. Un sistema de inteligencia artificial general sería más capaz de transferir sus habilidades de un dominio a otro, incluso si nunca antes hubiera estado en el nuevo dominio.

¿Vale la pena correr el riesgo?

¿Están los agentes de IA preparados para revolucionar la forma de trabajar de los seres humanos? Esto dependerá de si las empresas tecnológicas pueden demostrar que los agentes están equipados no solo para realizar las tareas que se les asignan, sino también para superar nuevos desafíos y obstáculos inesperados cuando surgen.

La adopción de agentes de IA también dependerá de la voluntad de las personas de darles acceso a datos potencialmente confidenciales: según lo que se supone que debe hacer el agente, es posible que necesite acceso a su navegador de Internet, su correo electrónico, su calendario y otras aplicaciones o sistemas que sean relevantes para una tarea determinada. A medida que estas herramientas se vuelvan más comunes, las personas deberán considerar qué cantidad de datos desean compartir con ellas.

Una vulneración del sistema de un agente de IA podría provocar que información privada sobre tu vida y tus finanzas caiga en manos equivocadas . ¿Te parece bien correr estos riesgos si eso significa que los agentes pueden ahorrarte algo de trabajo?

¿Qué sucede cuando los agentes de IA toman una mala decisión o una decisión con la que el usuario no estaría de acuerdo? Actualmente, los desarrolladores de agentes de IA mantienen informados a los humanos, asegurándose de que tengan la oportunidad de verificar el trabajo de un agente antes de que se tomen decisiones finales. En el ejemplo de Project Mariner, Google no permite que el agente realice la compra final ni acepte el acuerdo de términos de servicio del sitio. Al mantenerlo informado, los sistemas le brindan la oportunidad de retractarse de cualquier decisión tomada por el agente que no apruebe.

Al igual que cualquier otro sistema de IA, un agente de IA está sujeto a sesgos. Estos sesgos pueden provenir de los datos con los que se entrena inicialmente al agente, del algoritmo en sí o de cómo se utiliza el resultado del agente. Mantener a los humanos informados es un método para reducir los sesgos al garantizar que las decisiones sean revisadas por personas antes de implementarse.

Las respuestas a estas preguntas probablemente determinarán qué tan populares se volverán los agentes de IA y dependerán de cuánto puedan las empresas de IA mejorar sus agentes una vez que la gente comience a usarlos.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí