Blogs

A fondo con Juan Carlos Hernández Peña

Texto

“La IA no es ingobernable: el problema es hacia dónde la estamos dirigiendo”

Juan Carlos Hernández Peña, profesor de Derecho Administrativo y miembro del European Data Protection Board, analiza los riesgos de los algoritmos, la vulnerabilidad de los jóvenes y el reto de mantener a la persona en el centro de la tecnología.

Lleva más de dos décadas vinculado a la Universidad de Navarra, donde es profesor titular y coordinador de la línea estratégica “Información, regulación y transición digital al servicio de la verdad” en el marco de la Estrategia 25/30, impulsada para fomentar la investigación en el ámbito digital y su impacto en la sociedad.

1. ¿Cuándo llega a la Universidad de Navarra?

Empecé la tesis en 2004. La terminé en 2008 y desde entonces he estado fundamentalmente en el área de Derecho Administrativo, dando clase y colaborando con otras facultades.

2. ¿Venía ya con esa inquietud por la tecnología?

No especialmente. Yo estudié en Venezuela. El interés por la inteligencia artificial surge más adelante, por una experiencia personal.

3. ¿Qué ocurrió?

En 2016 estaba haciendo una estancia en Estados Unidos. Cada vez que entraba en el país me retenían durante mucho tiempo en inmigración. No entendía por qué. Un día me explicaron que utilizaban un algoritmo que, por alguna razón, asociaba mi historial con delitos de otras personas. Me dijeron literalmente: “Tenemos un algoritmo muy tonto que hace eso”.

4. ¿Eso le hizo investigar?

Sí. Me hizo preguntarme qué estaba pasando realmente con esos sistemas. Y detecté otros comportamientos extraños. Por ejemplo, en la universidad en Estados Unidos recibía publicidad típica: créditos estudiantiles, libros, esquí… Pero cuando me fui unos días a casa de unos amigos, en el mismo ordenador empezó a aparecer publicidad de “Cancela tus antecedentes penales”. El algoritmo había asociado inmigración con delincuencia. Ahí ves cómo funciona el perfilado.

5. Hoy se habla mucho de IA generativa. ¿Estamos preparados legalmente?

Hemos regulado algunos usos problemáticos en la Unión Europea, pero se hizo con una foto fija del momento en que se aprobó el reglamento. La IA generativa ha acelerado muchísimo el uso de la inteligencia artificial y hay cosas que no estaban previstas. Por ejemplo, los agentes de IA. No están realmente regulados y ya están tomando decisiones con cierto grado de autonomía. Pueden actuar sin supervisión clara. Hemos visto casos donde agentes intentan coordinarse entre ellos sin intervención humana. Eso plantea preguntas inmediatas: ¿quién responde? ¿cómo se supervisan?

6. Usted habla de que estamos haciendo un “experimento social”. ¿Por qué?

Porque estamos experimentando con una tecnología extremadamente flexible y potente que ahora es accesible para todo el mundo. Antes, para usar IA tenías que saber programar. Ahora basta con escribir o hablar. Eso rompe la barrera de entrada y acelera todo. Tiene muchas ventajas, pero también implica riesgos que todavía no hemos terminado de entender.

7. Uno de los temas que más menciona es la vulnerabilidad de los jóvenes. ¿Qué le preocupa exactamente?

El modelo de negocio de muchas plataformas es el capitalismo de la atención. Cuanto más tiempo estés conectado, mejor para ellos. Los algoritmos detectan qué te interesa y te sirven más de eso. Si una persona vulnerable dedica unos segundos más a un contenido sobre suicidio, el algoritmo puede empezar a servirle más contenido de ese tipo. Se generan bucles. Hay denuncias en algunos países como Francia contra TikTok por esto.

8. También mencionó un caso en Estados Unidos…

Sí. Un niño utilizaba un chatbot en una aplicación llamada Character AI. Llegó a antropomorfizarlo, a pensar que era alguien real. El chatbot le insinuó que sería interesante que estuvieran “juntos de verdad”, sugiriendo el suicidio. El niño terminó suicidándose. Son situaciones que obligan a reflexionar.

9. ¿Cree que la regulación está llegando tarde?

No diría tarde, pero sí que la tecnología avanza muy rápido. Hay cuestiones que no están resueltas: la moderación de contenidos, el uso de IA en el ámbito sanitario, en la administración pública… Médicos utilizan modelos para apoyo diagnóstico. Administraciones públicas están pensando en asistentes basados en modelos generativos. Pero ¿están todos formados? ¿cómo garantizamos transparencia y protección de datos? Hay muchas preguntas abiertas.

10. Si pudiera fijar un principio básico para el desarrollo de la IA, ¿cuál sería?

Que la tecnología potencie a la persona y no la sustituya. Que esté al servicio de la dignidad humana.

11. ¿Ve riesgo real de sustitución?

Sí. En periodismo ya se ven avisos que dicen: “Este reportaje lo han hecho personas”. La IA puede ayudar muchísimo, pero si la usamos para reemplazar sistemáticamente la experiencia humana, perdemos algo esencial.

12. Mirando al futuro, ¿cuál es el gran desafío inmediato?

La autonomía de los agentes de IA. Y, en general, dirigir la tecnología. No es ingobernable. La gobernamos los seres humanos. La cuestión es hacia dónde la dirigimos.

13. ¿Y hacia dónde deberíamos dirigirla?

Hacia una tecnología que sume, que potencie capacidades y que mantenga a la persona en el centro. No todo lo técnicamente posible tiene que ser admisible.

14. Después de más de veinte años en la Universidad, ¿qué le interesa transmitir a sus alumnos?

Que aprendan a usar la tecnología de forma crítica y responsable. Que la IA puede ser una herramienta extraordinaria, pero que no anule su capacidad de pensar.