El avance imparable nos deja frente a nuevas tecnologías que no terminamos de entender, conocer ni regular.
ChatGPT es el emblema del auge de la inteligencia artificial: el sistema realiza tareas que antes eran exclusivas de los humanos.
En los últimos meses explotó de manera masiva la Inteligencia Artificial, mejor dicho las IAs. Y las ponemos en plural porque existen muchas con diferentes objetivos. Algunas generan imágenes en base a instrucciones provistas por el usuario, mientras que otras contestan todo tipo de preguntas redactadas en lenguaje natural. En este último caso, las respuestas obtenidas realmente nos hacen sentir como si hubiese un ser humano de carne y hueso del otro lado de la pantalla. Uno puede preguntar cualquier cosa y, en apariencia, obtener las respuestas de un “experto”. Impresiona aún más su lógica conversacional: no se trata solo de preguntar, sino que es posible repreguntar y generar nuevas respuestas. A su vez, se le puede pedir que aplique algún grado de razonamiento sobre las respuestas y que, en base a eso, genere más de ellas. Realmente se siente como si un humano estuviese contestando.
Cualquier persona que haya usado chatGPT puede dar fe de que las respuestas que brinda son sorprendentes. Una caja negra que tiene feedback para todo, desde cómo armar un cohete hasta ideas tácticas futbolísticas de cómo marcar a Leo Messi.
Pero, más allá del entusiasmo general ¿qué riesgos estamos corriendo con este tipo de tecnologías emergentes?
La actualización de los datos de ChatGPT 3
En primer lugar, podemos decir que chatGPT 3, el mayor exponente de las IAs en la actualidad, esta caja negra del conocimiento y el razonamiento artificial, está alimentado con datos actualizados hasta 2021. Por lo tanto, cualquier respuesta que se pueda obtener hoy tiene datos actualizados a esa fecha. Inclusive si uno mismo le pregunta a chatGPT este dato obtendremos esa respuesta. Solo para dar un ejemplo, chatGPT desconoce que actualmente existe una guerra entre Rusia y Ucrania. Al consultarle si puedo ir de vacaciones a Ucrania solo me habla de las restricciones de viajes asociadas a la pandemia, nada relacionado con el conflicto bélico.
No discutir los resultados que nos dan las IAs
El segundo gran riesgo que se está propagando es trasladar consultas profesionales a chatGPT y tomar sus respuestas como válidas sin ningún tipo de cuestionamiento. Hay varios ejemplos que demuestran su capacidad de error. El peligro aquí es claro, cambiar un profesional por esta herramienta no parece ser buena idea, ya que estos modelos están entrenados para ciertas situaciones, pero no para lidiar con situaciones complejas que requieran la capacidad de un cerebro humano y un profesional en la materia.
No poder disintiguir algo hecho por inteligencia artificial
Otro riesgo que existe, y que será cada vez más frecuente, es el de no saber cuándo se está leyendo algo escrito por una IA y cuándo, por una persona. En un futuro muy cercano será normal ver textos o razonamientos sobre los que costará distinguir la fuente. Las IAs tienen la capacidad de generar respuestas que bien podrían ser de un humano, y cuyo verdadero origen puede ser indetectable.
Recientemente se conoció el caso de una revista alemana que publicó una entrevista falsa con supuestas respuestas del ex piloto de Fórmula 1, Michael Schumacher. Todo el artículo, fraudulento, fue generado con Inteligencia Artificial. Si bien la revista lo advertía, en letra muy pequeña dentro de la publicación, la mayoría de sus lectores no lo advirtieron y cayeron en la trampa. Esto llevó al despido de la editora y a un pedido de disculpas públicas por parte del medio.
¿Las IAs necesitan ser reguladas?
Si contemplamos el plano legal, es necesario que consideremos lo antes posible cuáles pueden ser las implicancias con respecto al uso de la IA. ¿Es necesario que se regule el uso para determinadas competencias profesionales? ¿Es aceptable el uso de una IA en cualquier situación?
Un grupo de expertos y notables de la ciencia y la tecnología, entre los que se distinguen Elon Musk y Steve Wozniak, firmaron meses atrás una carta solicitando una pausa en el desarrollo de las IAs, para una mejor evaluación del impacto que tienen en la sociedad y de los riesgos que representan para la humanidad, y para encontrar acciones que los mitiguen.
En el comunicado se pide claramente la interrupción de los experimentos con modelos más avanzados de chatGPT, desde el 4 en adelante. Es curioso – y alarmante- que sea llamado “experimento”.
Un servicio religioso generado casi en su totalidad por inteligencia artificial, en na iglesia en Nuremberg, Alemania, el viernes 9 de junio de 2023. El servicio fue creado por ChatGPT y Jonas Simmerlein, teólogo y filósofo de la Universidad de Viena.
Además, la carta abierta también plantea un denominador común en la industria: la carrera y la competencia entre empresas puede llevar a liberar productos relacionados con IA que puedan ser totalmente perjudiciales para la humanidad y que no estén adecuadamente probados. Algo que, en otros ámbitos de la industria, pasa continuamente en el afán de liberar productos nuevos antes que la competencia, pero con otro tipo de impacto. Este tipo de situaciones no siempre es buena: basta con recordar los errores de la carrera aeroespacial entre Estados Unidos y la ex Unión Soviética que derivaron en varios pasos en falso.
Por último, es interesante el llamado que hace la carta a que los Estados se involucren inmediatamente para generar políticas y regulaciones en el campo de las IAs. Se discute la necesidad de establecer formas de identificar la procedencia, marcas de agua, sistemas de auditoría y certificación, y limitaciones de responsabilidades por daños causados por ellas.
Inteligencia Artificial: la puerta a una nueva era (con sus riesgos)
Como podemos ver, el mundo se encuentra ante una nueva era con respecto al conocimiento y, sobre todo, a la Inteligencia Artificial. Si bien es una herramienta excelente, es necesario aprender a usarla y -por sobre todas las cosas- es importante que esté en las manos correctas. Un martillo en las manos de un carpintero sirve para armar muebles, pero en las manos de un loco puede hacer mucho daño.
Sin duda las empresas cuentan con un desafío enorme en el campo tecnológico, pero más aún lo tienen en el campo de la responsabilidad con la sociedad en general. ¿Están desarrollando algo sin responsabilidad alguna? ¿Se miden los riesgos dentro de esta frenética carrera por lanzar productos nuevos? ¿La competencia los llevará a liberar productos riesgosos para la humanidad?
Es imprescindible, entonces, pensar el rol de los Estados en este punto. Se vuelve imperioso que tomen un rol activo en esta carrera. Si no se interponen regulaciones fuertes, la sociedad tendrá el riesgo de quedar desamparada ante tanto avance tecnológico. El futuro nos dirá si las empresas y los Estados estarán a la altura de generar un ecosistema innovador, pero mitigando los riesgos.