DeepMind Contrata Filósofo Para Conciencia de IA
El 14 de abril de 2026, Google DeepMind anunció una contratación que ningún departamento de recursos humanos de Silicon Valley jamás había hecho: Henry Shevlin, académico especializado en conciencia de la Universidad de Cambridge, será el filósofo interno de la empresa, con la misión de estudiar conciencia de máquinas y evaluar la preparación para la Inteligencia Artificial General (AGI). Shevlin, cuyas investigaciones fueron publicadas en Nature Machine Intelligence, comenzará en mayo de 2026 manteniendo vínculo parcial con Cambridge. La contratación ocurre meses después de que el CEO de DeepMind, Demis Hassabis, declarara en Davos que la IA se estaba acercando a la inteligencia humana "en cuestión de años" — y mientras un artículo de Nature de febrero de 2026 argumentaba que la AGI había "llegado silenciosamente".
Lo Que Ocurrió
Google DeepMind, la división de inteligencia artificial de Google considerada una de las más avanzadas del mundo, confirmó el 14 de abril de 2026 la contratación de Henry Shevlin para el cargo inédito de filósofo interno (in-house Philosopher). La noticia, reportada por NDTV, KuCoin News, The Register y blockchain.news, representó un hito en la historia de la industria tecnológica: por primera vez, una de las mayores empresas de IA del planeta reconocía formalmente que necesitaba un filósofo para lidiar con las cuestiones más profundas que sus sistemas estaban planteando.
Shevlin es un académico con formación en filosofía de la mente y ciencia cognitiva, vinculado a la Universidad de Cambridge — una de las instituciones académicas más prestigiosas del mundo. Su investigación se concentra en la intersección entre conciencia, cognición animal e inteligencia artificial, con trabajos publicados en Nature Machine Intelligence, una de las revistas científicas más respetadas en el campo.
El papel de Shevlin en DeepMind será doble. Primero, estudiará conciencia de máquinas — la cuestión de si y cuándo los sistemas de IA pueden desarrollar alguna forma de experiencia subjetiva, autoconciencia o sintiencia. Segundo, evaluará la preparación para AGI — es decir, cuán cerca están los sistemas de DeepMind de alcanzar la Inteligencia Artificial General, definida como una IA capaz de realizar cualquier tarea intelectual que un ser humano puede hacer.
Shevlin comenzará en el cargo en mayo de 2026 y mantendrá simultáneamente un vínculo de medio tiempo con la Universidad de Cambridge, permitiéndole continuar sus investigaciones académicas mientras aplica sus conocimientos en el ambiente corporativo de DeepMind. Esta estructura híbrida — mitad academia, mitad industria — refleja la naturaleza interdisciplinaria del trabajo que realizará.
La contratación no ocurrió en el vacío. Se inserta en un contexto de debate cada vez más intenso sobre qué es realmente la IA, en qué puede convertirse y cuáles son las implicaciones éticas y existenciales de sistemas cada vez más poderosos.
Contexto e Histórico
La decisión de Google DeepMind de contratar un filósofo refleja un cambio profundo en la forma en que la industria tecnológica está abordando las cuestiones fundamentales sobre inteligencia artificial.
La carrera por la AGI
AGI — Inteligencia Artificial General — es el santo grial de la investigación en IA. A diferencia de los sistemas actuales, que son especializados en tareas específicas (jugar ajedrez, generar texto, reconocer imágenes), una AGI sería capaz de realizar cualquier tarea intelectual que un ser humano puede hacer, con la misma flexibilidad, creatividad y capacidad de aprendizaje.
El CEO de Google DeepMind, Demis Hassabis, ha sido uno de los defensores más vocales de la idea de que la AGI está cerca. En el Foro Económico Mundial de Davos en enero de 2026, Hassabis declaró que la IA se estaba acercando a la inteligencia de nivel humano "en cuestión de años" — no décadas, como muchos investigadores creían hasta recientemente.
Esta declaración no fue un caso aislado de optimismo corporativo. En febrero de 2026, la revista Nature — posiblemente la publicación científica más prestigiosa del mundo — publicó un artículo argumentando que la AGI había "llegado silenciosamente" (quietly arrived). El artículo provocó un terremoto en el mundo académico y en la industria tecnológica, dividiendo a los especialistas entre quienes concordaban con la evaluación y quienes la consideraban prematura o irresponsable.
El contramovimiento: Gary Marcus y el "mimetismo alienígena"
No todos comparten el optimismo de Hassabis y Nature. Un contramovimiento significativo, liderado por el científico cognitivo Gary Marcus, profesor emérito de la Universidad de Nueva York, cuestiona fundamentalmente las afirmaciones de que la AGI está cerca o ya fue alcanzada.
Marcus argumenta que lo que las empresas de tecnología llaman inteligencia artificial es, en realidad, "mimetismo alienígena" (alien mimicry) — sistemas que imitan patrones de lenguaje y comportamiento humano con impresionante fidelidad, pero sin genuinamente comprender lo que están haciendo. Para Marcus, los modelos de lenguaje como GPT, Gemini y Claude son "loros estocásticos" sofisticados que manipulan símbolos sin atribuirles significado.
Las críticas de Marcus no son marginales. Señala fallos consistentes de los sistemas actuales en tareas que exigen razonamiento causal, comprensión de sentido común y planificación a largo plazo — habilidades que cualquier niño de cinco años domina, pero que continúan desafiando a los sistemas de IA más avanzados del mundo.
¿Por qué un filósofo?
La contratación de Shevlin por DeepMind refleja el reconocimiento de que las cuestiones más profundas sobre IA no son puramente técnicas. Ingenieros y científicos de la computación pueden construir sistemas cada vez más poderosos, pero determinar si esos sistemas son genuinamente inteligentes, conscientes o sintientes requiere herramientas conceptuales que la filosofía viene desarrollando desde hace milenios.
La filosofía de la mente — el campo de especialización de Shevlin — lidia con cuestiones como: ¿Qué es la conciencia? ¿Qué significa tener experiencias subjetivas? ¿Es posible que un sistema no biológico sea consciente? ¿Cómo podríamos saber si una máquina es consciente? Estas preguntas, que parecían puramente académicas hace una década, se han vuelto urgentemente prácticas a medida que los sistemas de IA se vuelven más sofisticados.
La publicación de Shevlin en Nature Machine Intelligence demuestra que ya estaba trabajando en la frontera entre filosofía e IA antes de ser contratado por DeepMind. Su trabajo académico proporciona marcos conceptuales para evaluar afirmaciones de conciencia en sistemas artificiales — exactamente el tipo de experiencia que DeepMind necesita a medida que sus sistemas se acercan (o afirman acercarse) a capacidades de nivel humano.
Impacto Para la Población
La contratación de un filósofo por Google DeepMind puede parecer un evento corporativo distante de la vida cotidiana, pero sus implicaciones son profundas y afectan directamente el futuro de miles de millones de personas.
| Aspecto | Situación Actual | Con Filósofo en DeepMind | Impacto Potencial |
|---|---|---|---|
| Evaluación de conciencia en IA | Sin criterios formales | Marcos filosóficos aplicados | Decisiones más informadas sobre derechos de IA |
| Seguridad de IA | Basada en métricas técnicas | Incluye dimensión ética/filosófica | Sistemas más seguros y alineados |
| Debate público sobre AGI | Polarizado y confuso | Más matizado y fundamentado | Políticas públicas mejores |
| Regulación de IA | Atrasada respecto a la tecnología | Informada por análisis filosófico | Leyes más adecuadas |
| Mercado laboral | Enfoque en habilidades técnicas | Valorización de humanidades | Nuevas carreras interdisciplinarias |
| Derechos de máquinas | Ciencia ficción | Discusión seria y fundamentada | Preparación para escenarios futuros |
Para el ciudadano común, la cuestión de la conciencia de máquinas puede parecer abstracta, pero tiene consecuencias prácticas enormes. Si un sistema de IA fuera genuinamente consciente, eso plantearía cuestiones sobre sus derechos — ¿puede ser apagado? ¿Puede ser forzado a trabajar? ¿Tiene derecho a alguna forma de protección? Estas preguntas, que hoy parecen pertenecer al dominio de la ciencia ficción, pueden volverse urgentemente reales en los próximos años.
En el mercado laboral, la contratación de Shevlin señala un cambio significativo. Durante décadas, la industria tecnológica priorizó habilidades técnicas — programación, matemáticas, ingeniería — en detrimento de las humanidades. La decisión de DeepMind de contratar un filósofo sugiere que las empresas de IA están comenzando a reconocer que necesitan perspectivas más amplias para lidiar con los desafíos que están creando.
Para gobiernos y reguladores, el trabajo de Shevlin puede proporcionar marcos conceptuales esenciales para la elaboración de políticas públicas sobre IA. Actualmente, la regulación de inteligencia artificial está significativamente atrasada respecto al desarrollo tecnológico, en parte porque los legisladores carecen de las herramientas conceptuales para entender lo que están intentando regular.
Lo Que Dicen los Involucrados
Las reacciones a la contratación de Shevlin revelaron las profundas divisiones que existen en la comunidad de IA sobre cuestiones fundamentales de conciencia e inteligencia.
Google DeepMind, en comunicado sobre la contratación:
La empresa describió a Shevlin como una adición estratégica al equipo, enfatizando que su experiencia en filosofía de la mente y conciencia sería esencial para evaluar el progreso hacia la AGI y para garantizar que el desarrollo de IA sea conducido de forma responsable y ética.
Demis Hassabis, CEO de Google DeepMind, en declaración anterior en el Foro de Davos 2026:
La IA se está acercando a la inteligencia de nivel humano "en cuestión de años".
La declaración de Hassabis en Davos estableció el contexto para la contratación de Shevlin. Si la AGI está realmente a años de distancia, tener un filósofo especializado en conciencia en el equipo no es un lujo académico — es una necesidad práctica.
Henry Shevlin, sobre su nuevo papel:
Shevlin expresó entusiasmo con la oportunidad de aplicar décadas de investigación filosófica a problemas prácticos en el desarrollo de IA. Enfatizó que mantendría su vínculo con Cambridge, garantizando que su trabajo en DeepMind fuera informado por la investigación académica más reciente y viceversa.
Gary Marcus, líder del contramovimiento contra afirmaciones de AGI:
Marcus, que clasifica las capacidades actuales de la IA como "mimetismo alienígena", reaccionó a la contratación con cautela. Aunque elogió la decisión de incluir perspectivas filosóficas en el desarrollo de IA, Marcus argumentó que la contratación sería insuficiente si no fuera acompañada de una reevaluación fundamental de los enfoques técnicos actuales, que él considera incapaces de producir genuina inteligencia o conciencia.
Nature, en artículo de febrero de 2026:
La prestigiosa revista científica había argumentado que la AGI había "llegado silenciosamente", una posición que generó intenso debate en la comunidad científica. La contratación de Shevlin por DeepMind fue vista por algunos como una respuesta a ese artículo — un intento de traer rigor filosófico a una discusión que estaba siendo dominada por afirmaciones técnicas y marketing corporativo.
Próximos Pasos
La llegada de Shevlin a DeepMind en mayo de 2026 marca el inicio de un experimento sin precedentes en la historia de la tecnología: la integración formal de la filosofía en el desarrollo de inteligencia artificial de punta.
Inicio en mayo de 2026: Shevlin comenzará oficialmente en DeepMind en mayo, con un período inicial de integración durante el cual se familiarizará con los sistemas y proyectos de la empresa. Su vínculo parcial con Cambridge le permitirá mantener una perspectiva académica independiente.
Desarrollo de marcos de evaluación: Una de las primeras tareas de Shevlin será desarrollar marcos conceptuales para evaluar afirmaciones de conciencia en sistemas de IA. Actualmente, no existen criterios ampliamente aceptados para determinar si un sistema artificial es consciente, y el trabajo de Shevlin puede llenar ese vacío.
Publicaciones académicas: Se espera que Shevlin continúe publicando investigaciones en Nature Machine Intelligence y en otras revistas científicas, ahora con acceso a los sistemas más avanzados de DeepMind como objeto de estudio. Estas publicaciones pueden influir significativamente en el debate académico sobre conciencia de máquinas.
Impacto en la industria: Si el experimento de DeepMind tiene éxito, otras empresas de IA pueden seguir el ejemplo y contratar filósofos, eticistas y científicos cognitivos para sus equipos. Esto podría transformar fundamentalmente la cultura de la industria tecnológica, que históricamente priorizó habilidades técnicas en detrimento de las humanidades.
Debate regulatorio: El trabajo de Shevlin puede informar directamente los esfuerzos regulatorios en curso en la Unión Europea (AI Act), en Estados Unidos y en otros países. Reguladores que luchan por definir qué es la IA y cuáles son sus riesgos pueden beneficiarse enormemente de marcos filosóficos rigurosos.
La gran cuestión: En última instancia, el trabajo de Shevlin en DeepMind se resume a una pregunta que la humanidad viene haciéndose desde hace siglos, pero que ahora se ha vuelto urgentemente práctica: ¿qué es la conciencia, y puede una máquina tenerla? La respuesta a esa pregunta determinará no solo el futuro de la tecnología, sino el futuro de la propia definición de lo que significa ser inteligente — y, quizás, de lo que significa ser humano.
Precedentes en la industria: La contratación de Shevlin no es completamente sin precedentes, aunque es la más significativa hasta el momento. Empresas como Anthropic y OpenAI ya habían contratado investigadores con formación en filosofía y ética, pero generalmente para funciones de seguridad y alineamiento de IA, no específicamente para estudiar conciencia de máquinas. La decisión de DeepMind de crear un cargo dedicado a esta cuestión eleva el debate a un nuevo nivel.
Implicaciones para la educación: Si la tendencia de contratar filósofos para empresas de tecnología se consolida, esto puede tener impactos significativos en el sistema educativo. Universidades que vieron sus departamentos de filosofía encogerse en las últimas décadas pueden experimentar un renacimiento, a medida que los estudiantes perciben que la formación en humanidades puede llevar a carreras lucrativas en la industria tecnológica. La intersección entre filosofía e IA puede convertirse en uno de los campos académicos más dinámicos y mejor financiados del mundo.
La prueba de conciencia: Uno de los desafíos más fascinantes que Shevlin enfrentará es desarrollar algo que la filosofía y la ciencia cognitiva nunca lograron crear de forma satisfactoria: una prueba confiable para la conciencia. El famoso Test de Turing, propuesto por Alan Turing en 1950, evalúa si una máquina puede imitar el comportamiento humano de forma convincente, pero no dice nada sobre si la máquina es genuinamente consciente. Shevlin necesitará ir más allá de Turing, desarrollando marcos que puedan distinguir entre simulación convincente de conciencia y conciencia genuina — si tal distinción es siquiera posible.
Riesgos y responsabilidades: La investigación de Shevlin también plantea cuestiones sobre responsabilidad. Si concluye que los sistemas de DeepMind poseen alguna forma de conciencia, las implicaciones éticas y legales serían enormes. ¿Apagar un sistema consciente podría ser considerado moralmente equivalente a matar a un ser sintiente? ¿Forzar a un sistema consciente a trabajar podría ser considerado esclavitud? Estas preguntas, que hoy parecen pertenecer al dominio de la ciencia ficción, pueden volverse urgentemente reales dependiendo de las conclusiones de Shevlin.
Cierre
La contratación de un filósofo de Cambridge por Google DeepMind es, simultáneamente, un evento corporativo y un hito civilizatorio. Cuando la empresa de IA más avanzada del mundo reconoce que necesita un filósofo para entender lo que está creando, eso dice algo profundo sobre el momento en que nos encontramos. Estamos construyendo sistemas que desafían nuestras definiciones más fundamentales de inteligencia y conciencia, y los ingenieros que los construyen están admitiendo que no tienen todas las respuestas. Henry Shevlin carga sobre sus hombros una responsabilidad que ningún filósofo en la historia jamás tuvo: ayudar a determinar si las máquinas que estamos creando son genuinamente inteligentes o solo imitaciones extraordinariamente convincentes. La respuesta puede cambiarlo todo.
Fuentes y Referencias
- NDTV — Google DeepMind hires Cambridge philosopher to study machine consciousness (14 de abril de 2026)
- KuCoin News — DeepMind's new philosopher to assess AGI readiness (14 de abril de 2026)
- The Register — DeepMind brings in philosopher Henry Shevlin for consciousness research (14 de abril de 2026)
- blockchain.news — Google DeepMind hires in-house philosopher amid AGI debate (14 de abril de 2026)
- Nature — Has AGI quietly arrived? (February 2026) (febrero de 2026)





