Por David Ormeño y Pamela Hidalgo.- Es relativamente fácil mencionar los posibles riesgos del uso de herramientas de IA (Inteligencia Artificial), pero a menudo se ven a través de un prisma derivado de la narrativa establecida por la ciencia ficción o por medios alarmistas o apocalípticos.
La inteligencia artificial (IA) es una herramienta con múltiples aplicaciones, desde la predicción de políticas fiscales hasta la creación de música e imágenes. Aunque existen riesgos asociados a su uso, estos a menudo se exageran a través de narrativas apocalípticas o alarmistas derivadas de la ciencia ficción o los medios de comunicación.
Riesgo especulativo 1: Desinformación maliciosa
Algunos de los riesgos más reconocidos incluyen diferentes formas de desinformación, el impacto laboral y la seguridad. Específicamente, el uso de modelos lingüísticos de gran tamaño (LLM) -como Chat GPT-, ha generado preocupación por su posible uso en la difusión de información falsa, lo que puede confundir al público y socavar las instituciones democráticas.
Ver también:
El miedo en la inteligencia artificial
Los riesgos de la Inteligencia Artificial y algunas soluciones
El metaverso y el uso ético de la tecnología
Riesgo real 1: Uso descuidado de la Inteligencia Artificial
Sin embargo, es importante tener en cuenta que el reto reside en distribuir eficazmente la información falsa, lo que requiere un conocimiento sofisticado de las plataformas mediáticas y del comportamiento de la audiencia.
Además, existe un riesgo real de desinformación debido al uso descuidado de las herramientas de IA, ya que los modelos lingüísticos LLM no están diseñados para generar la verdad, sino para generar afirmaciones que suenen plausibles. Esto significa que los usuarios podrían confiar en los LLM en situaciones en las que la exactitud de los hechos es crucial, lo que puede tener consecuencias negativas.
Riesgo especulativo 2: los LLM reemplazarán los trabajos
Otro riesgo asociado con la IA es su posible impacto en el mercado laboral. A medida que la IA se vuelve más avanzada, es probable que algunas tareas sean automatizadas, lo que podría provocar la pérdida de empleos. Sin embargo, también es posible que la IA cree nuevos empleos y oportunidades, por lo que es importante evaluar cuidadosamente su impacto antes de tomar medidas drásticas.
Riesgo real 2: Poder centralizado, explotación laboral
Aunque la tecnología tiene el potencial de revolucionar muchas industrias y hacernos la vida más fácil, también tiene el poder de alejarnos del equilibrio y los derechos laborales. Un ejemplo de ello es la IA generativa para crear arte.
Algunas empresas han utilizado herramientas de conversión de texto en imagen para crear arte sin compensar o reconocer a los artistas que inspiraron su trabajo. Además, los trabajadores que filtran contenidos nocivos de sistemas de IA como Chat GPT suelen recibir salarios bajos, a veces inferiores a 2 USD/hora.
Riesgo especulativo 3: Riesgos existenciales a largo plazo
La ciencia ficción popular contribuyó a dar forma a nuestra imaginación sobre un mundo gobernado por Terminators y robots asesinos. Dentro de la comunidad de la IA, estas preocupaciones se han debatido como «riesgos existenciales» o «riesgo x».
Es importante equilibrar nuestra preocupación por el futuro a largo plazo de la IA con el tratamiento de los riesgos que existen en el presente. Ambos aspectos de la cuestión requieren atención, y los recursos deben asignarse en consecuencia para mitigar los riesgos con eficacia.
Daño real: Riesgos existenciales a corto plazo
En cuanto a la seguridad, existen preocupaciones sobre la vulnerabilidad de los sistemas de IA a los ciberataques y la manipulación. Los sistemas de IA pueden ser vulnerables a los ataques de adversarios que intentan engañarlos o explotarlos para sus propios fines. Además, los sistemas de IA pueden ser manipulados para tomar decisiones sesgadas o discriminatorias, lo que podría tener graves consecuencias.
Es importante tener en cuenta que muchos de estos riesgos no son exclusivos de la IA y pueden ser mitigados a través de medidas apropiadas, como la regulación, la transparencia y la responsabilidad.
Por ejemplo, la regulación puede ayudar a garantizar que la IA se utilice de manera responsable y ética, mientras que la transparencia puede ayudar a garantizar que los usuarios comprendan cómo se están utilizando sus datos y cómo se están tomando las decisiones. La responsabilidad también puede ayudar a garantizar que las empresas y los desarrolladores de IA sean responsables de los efectos de su tecnología.
En general, la IA tiene el potencial de ser una herramienta poderosa y transformadora, pero es importante abordar los riesgos asociados con su uso. Al hacerlo, podemos maximizar los beneficios de la IA y minimizar sus riesgos, asegurando que se utilice para un bien mayor y no con fines maliciosos.
Adaptado por David Ormeño y Pamela Hidalgo a partir de los escritos de Arvind Narayanan, Emily Bender y Sayash Kapoor.