Los retos de la inteligencia artificial para el 2024

 

Por: Diana Bello Aristizábal

 

El 2023 fue el año del boom de la inteligencia artificial o IA, término que, según Oracle, engloba todas las aplicaciones que realizan tareas complejas para las que antes era necesaria la intervención humana como, por ejemplo, comunicarse en línea con un cliente, escribir un ensayo, hacer una reserva en un restaurante o hasta componer una canción. Ante su indudable auge, ¿cuál será el enfoque del 2024?

 

“Los avances recientes en inteligencia artificial han provocado asombro y ansiedad al contemplar su potencial transformador”, escribió Eric Horvitz, director científico de Microsoft, en su texto ‘Reflexiones sobre la IA y el futuro del florecimiento humano’. Esta frase plantea un punto de partida para comenzar a dar respuesta a este interrogante porque destaca la naturaleza ambivalente de la inteligencia artificial.

 

Es ambivalente porque su potencial transformador puede ser aprovechado para generar cambios positivos en la sociedad evocando sentimientos de asombro o, por el contrario, para alimentar la codicia y la perversión evocando sentimientos de ansiedad.

 

En la primera orilla se encuentra el impacto que ha tenido la IA en el campo de la medicina al ayudar a, por ejemplo, predecir soluciones para el tratamiento de enfermedades. En la orilla opuesta están los fraudes de todo tipo y la creación de imágenes para denigrar o promover conductas delictivas.

 

“Creo que en el 2024 vamos a entender más la importancia de crear un código de ética en el uso de la IA que parte de un conocimiento más amplio sobre el alcance que tiene esta herramienta”, asegura Manny Pérez, decano de las disciplinas de ingeniería, tecnología y diseño de Miami Dade College.

 

Contar con un marco ético, así como crear mecanismos de control se ha vuelto una necesidad imperiosa si tenemos en cuenta algunos hechos recientes tales como la suspensión de dos alumnos de un colegio de Miami-Dade por utilizar la inteligencia artificial para crear imágenes ficticias de desnudos de varios de sus compañeros y el hallazgo de más de 3.200 imágenes de presuntos abusos infantiles en la base de datos de IA, LAION.

 

Además, con ayuda de la inteligencia artificial muchos delincuentes han engañado a sus víctimas clonando voces de sus seres queridos con el fin de solicitar dinero o para exigir fraudulentamente el pago de impuestos atrasados en nombre del Servicio de Impuestos Internos (IRS).

 

Ha sido tal la prevalencia de este tipo de conductas que el gobierno emitió hace algunos meses una orden ejecutiva sobre “Inteligencia artificial segura, protegida y confiable” con el propósito de establecer nuevos estándares para proteger a las personas de una amplia gama de amenazas relacionadas con la IA.

 

Así mismo, ésta ha sido mal aprovechada por algunos estudiantes de escuelas y universidades que han entregado trabajos y ensayos hechos completamente a través de esta herramienta. “Cuando salió chat GPT muchas universidades empezaron a bloquearlo. Nuestro enfoque, en cambio, fue entenderlo y generar conversaciones sobre cómo usarlo de una mejor manera”, explica Pérez.

 

El uso de esta tecnología también ha generado un debate en diferentes campos como el de la escritura creativa, la composición musical, el periodismo o la cinematografía, entre otros, porque se teme que pueda incidir en la pérdida de puestos de trabajo al tiempo que plantea preguntas sobre derechos de autor y prácticas éticas en el ejercicio profesional.

 

De esta manera, el primer reto grande que se prevé es primero comprender a profundidad qué capacidad tiene la inteligencia artificial y a qué nivel para poder continuar creando políticas de uso como las que está implementando el gobierno o fortalecer las ya existentes.

 

“Sin el conocimiento de IA no se pueden tener estas conversaciones porque no podemos poner reglas sobre algo que desconocemos. Por eso, hay que dimensionar su impacto y no solo desde lo negativo sino también saber cómo usarla para, por ejemplo, hacer que llegue agua a una comunidad que la necesita”, añade Pérez.

 

Pero estas reglas o acuerdos, de acuerdo con el decano, funcionarán de una manera diferente en cada industria según la idiosincrasia de cada una que exigirá límites y aplicaciones diferentes y deberán ejercerse a nivel federal, estatal y municipal. “Si no comenzamos a regular y entender qué tenemos como sociedad, esto podría descontrolarse”, advierte.

 

Por otra parte, otro reto que deberá ser asumido es aprender a identificar de forma más refinada si algo que estamos viendo, leyendo o escuchando es real o no. “Para mi ese será el reto más grande de cara al futuro. Llevamos algunos años hablando de ‘fake news’ y esto ha venido a aumentar ese dolor de cabeza, lo cual es grave”, dice Edgar Argüello, profesor, asesor, consultor y conferencista en temas de marketing digital y redes sociales.

 

Este aspecto sobre la IA fue abordado por el investigador Gary Marcus en su charla TED ‘Los riesgos urgentes de una IA desbocada y qué hacer al respecto’. “Amo la inteligencia artificial, pero en este momento estoy preocupado. Una de las cosas que me preocupa es la desinformación, la posibilidad de que malos actores hagan un tsunami de desinformación sin precedentes”, afirmó Marcus en su charla.

 

Y continúa, “estas herramientas son tan buenas elaborando narrativas convincentes sobre cualquier cosa (…) los malos actores van a emplear estas cosas para influir en elecciones y van a amenazar la democracia”.

 

Durante su conferencia citó ejemplos concretos como, por ejemplo, la vez que ChatGPT inventó un escándalo de acoso sexual sobre un profesor real con evidencia suficiente para ser creída, mientras en otra ocasión un sistema de inteligencia artificial creó una noticia en la que se afirmaba que Elon Musk había muerto de un accidente de tráfico en el 2018.

 

Por esta razón, la conclusión del investigador es que la evolución de la inteligencia artificial no sobrevivirá a la verdad y la razón si continuamos integrando tecnología no confiable en nuestras vidas a velocidades peligrosamente altas.

 

Marcus aboga por una reevaluación urgente de esta herramienta y pide que una organización global sin fines de lucro regule la tecnología por el bien de la democracia y de nuestro futuro colectivo.

 

Pero además de lo anterior, un tercer reto tendrá que ver con evitar la sobre utilización de esta herramienta, una tendencia que influye en que estemos dejando de lado cada vez más el ingenio y la creatividad.

 

“Esta tecnología desde el punto de vista positivo se creó para liberarnos de procesos repetitivos que consumen tiempo y que nadie quiere hacer con el fin de permitirnos dedicarnos a otras cosas. Ha mejorado con el tiempo y eso es algo muy bueno porque es como tener un empleado más en tu equipo que siempre dice que si, no llega tarde y nunca se enferma”, explica Argüello.

 

Sin embargo, esto no quiere decir que pueda reemplazar completamente al humano. “Sirve para completar procesos, descargar responsabilidades y tener un punto de partida para que la inteligencia humana pueda entonces cruzar la información, curarla o desestimarla”, apunta.

 

En este sentido, no hay que olvidar que el pensamiento crítico es un músculo que debe ejercitarse si queremos evolucionar como especie y no ceder el control a la robótica y la inteligencia artificial.

 

“Los niños de ahora en la era de la IA cada vez tienen menos pensamiento crítico. Por eso cuando encuentran un obstáculo, no se esfuerzan por resolverlo como hacíamos otras generaciones”, asegura Manny Pérez, quien insta a los padres a entender el impacto que la IA puede tener en sus hijos, motivarlos a leer y a investigar.

 

Por último, un cuarto reto está relacionado con la protección de datos que es uno de los aspectos que más preocupa porque muchas veces no sabemos a dónde llega la información que circula. “Creo que en esta área vamos a ver mucho crecimiento en el 2024. Se hará un gran énfasis en crear políticas y sistemas que salvaguarden los datos de los clientes y las empresas”, comenta Pérez.

 

En conclusión, es claro que la inteligencia artificial llegó para quedarse puesto que todas las posiciones de empleo van a requerir algún nivel de conocimiento en este campo y todos los sectores productivos estarán influenciadas de una u otra manera por ella. Sin embargo, el punto de mayor análisis en el año que corre será cómo aprovecharla de una mejor manera entendiendo que de nosotros depende que nos destruya o, por el contrario, nos ayude a construir.

Leave a Reply

Your email address will not be published. Required fields are marked *

Send this to a friend