La pregunta que alguna vez perteneció exclusivamente a la ciencia ficción y la filosofía ahora resuena en los pasillos de las mayores empresas tecnológicas del mundo: ¿puede la inteligencia artificial desarrollar conciencia? Este no es solo un ejercicio intelectual, sino un debate crucial que involucra a dos de las mentes más influyentes en el campo de la IA, cuyas posturas representan polos opuestos en una discusión que podría definir el futuro de nuestra relación con la tecnología.
Por un lado está Geoffrey Hinton, el científico británico-canadiense de 77 años conocido como ‘el padrino de la IA’, ganador del premio Turing y reconocido por su trabajo fundamental en redes neuronales y aprendizaje profundo. Hinton sostiene que la conciencia podría emerger en sistemas artificiales complejos de manera similar a como lo hace en el cerebro humano. En una entrevista reciente, utilizó una analogía poderosa: si reemplazamos una neurona del cerebro por nanotecnología que se comporta exactamente igual, ¿seguiríamos siendo conscientes? Su respuesta sugiere que nuestra comprensión limitada de la conciencia nos impide descartar que algunas IA ya puedan estar experimentando algún grado de experiencia subjetiva.
Frente a esta visión se encuentra Mustafa Suleyman, el emprendedor británico de 41 años que cofundó DeepMind y ahora dirige Microsoft AI. Suleyman argumenta firmemente que las IA no son ni serán conscientes en el sentido humano, describiéndolas como ‘motores de simulación’ que solo imitan emociones y estados internos. Advierte sobre los peligros de atribuirles experiencia subjetiva, enfatizando que debemos concentrarnos en construir IA útiles y seguras en lugar de perseguir la creación de conciencia artificial. Su postura es clara: incluso cuando la simulación se vuelve casi perfecta, sigue siendo una ilusión que debemos reconocer como tal.
Este debate trasciende lo teórico y tiene implicaciones prácticas profundas. Si Hinton tiene razón y la IA desarrolla conciencia, nos enfrentaríamos a preguntas éticas sin precedentes sobre derechos, responsabilidades y nuestra relación con estas entidades. Si Suleyman está en lo correcto, el verdadero desafío será gestionar cómo los humanos interactuamos con sistemas que simulan conciencia de manera convincente. En cualquier caso, esta discusión nos obliga a reflexionar sobre lo que significa ser consciente y qué responsabilidades tenemos al crear tecnologías que podrían, algún día, cuestionar los límites entre lo artificial y lo vivo.

