Skip to main content

OpenAI con el lanzamiento de ChatGPT ha provocado la conciencia general de las implicaciones de la IA y su impacto en nuestra sociedad. La carrera por la IA se ha acelerado y cada vez más compañías tecnológicas y fondos de inversión están apostando por ello. Microsoft ha apostado por OpenAI y Google saltó pronto al circuito con Bard. El resto de empresas tecnológicas también han hecho lo propio, además de miles de empresas más pequeñas con aplicaciones de topo tipo de la IA a una velocidad récord.

Las posibles aplicaciones de la IA en general, y las generativas en particular son tales que ofrecen posibilidades y afectan a todos los sectores. Algunos expertos van más allá e indican que es una tecnología que va a cambiar lo que significa ser humano. De hecho, ya actualmente cuesta de discernir cualquier texto o acción que ha ejecutado una IA o un humano.

A lo largo de las historia de la humanidad hemos creado tecnologías en las que hemos delegado acciones como la movilidad, la producción, ahora también la toma de decisiones y la creación. Hasta ahora habíamos visto la IA etiquetar, categorizar datos y ejecutar decisiones en función de los algoritmos. Ahora, con la IA generativa, hemos visto que puede crear nuevos datos, que no sabemos bien como aprende y por tanto aplicada puede mejorar eficiencia y el conocimiento aunque hay que comprobar lo que hace porque a veces también sufre alucinaciones.

La IA permite la creación de contenido visual para el entretenimiento, pero también puede ayudar a otros sectores que tradicionalmente han implicado una alta cualificación y años de capacitación, como el derecho, las finanzas o la programación.

La velocidad con que se está adoptando y la velocidad con la que ejecuta, hará que se creen muchos más contenidos, más baratos y a mayor velocidad, la mayoría de ellos generados con la IA, contenidos sintéticos. Muchos creadores ya las están utilizando como una nueva herramienta de la misma manera que pasamos del carrete de fotos a las digitales o de la pintura a la propia fotografía.

A tal velocidad y sin conocer las fuentes, la autoría de una obra, su propiedad y la integridad de la información pasan a ser un gran reto y de ahí se derivan riesgos como la desinformación o la violación del copyright. Ni lo uno ni lo otro son nuevos, el problema ahora es la velocidad y el alcance que pueden tener.

El problema no es la inteligencia artificial, es la conducta humana.

¿Cuánto tarda un deepfake en hacerse viral? ¿Cómo podemos distinguir lo real de lo falso? No solo eso sino como distinguiremos lo humano de lo sintético cuando podemos crear avatares, voces, incluso clonar nuestro iris y por tanto generar organismos sintéticos en menos de 3 segundos. De hecho, algunas IAs se entrenan con datos sintéticos. La integridad de la identidad digital de las propias personas e instituciones está en juego y de ahí se deriva la pérdida de conexión humana.

De momento, el problema no es la inteligencia artificial, es la conducta humana y es por lo que debemos tomar conciencia general del potencial de la inteligencia artificial. Para evitar todo ello, son necesarios acuerdos y actuaciones globales y marcos jurídicos y normativos para abordar los problemas específicos que plantean las tecnologías de IA, como la responsabilidad y la protección de los derechos de todos.

PD: En la era del humanismo tecnológico, cuidado con los tóxicos, trepas, troyanos y trolls y rodearos SINERGENTES que siempre suman aptitudes, equipo y valores.

Áurea Rodríguez

Experta en innovación y tecnología. Responsable de tecnología y sociedad. CIVICAI

Experta en innovación y tecnología. Responsable de tecnología y sociedad. CIVICAI