Antropocentrismo obsoleto
Los humanos tendemos a pensar que somos el centro de todo, algo que revela una visión muy limitada y miope de nuestro lugar en el universo.
Hace 10 años, en 2015, fui invitado por Jesus Alcoba a dar el discurso de graduación en la Universidad de LaSalle y titulé mi ponencia "Sobre el Futuro de la Vida", inspirado por el reciéntemente creado instituto con el mismo nombre, y explorando algunos de mis trabajos previos sobre el tema, desde 2014 y anteriores, incluyendo otro artículo titulado "Deep Learning y el Auge de la IA", donde introduje uno de mis mantras y el más citado: "Hemos estado creando herramientas desde el principio de los tiempos y pronto estas herramientas se convertirán en el próximo nosotros", he cambiado últimamente "pronto estas herramientas" por "la última herramienta" ya que probablemente es más preciso.
Habiendo estado involucrado en el sector de la ciencia y la tecnología durante las últimas 3 décadas y casi las últimas 2 centrado en la investigación y desarrollo de la IA, entendiendo que desde 2013 comienza lo que yo llamo "La nueva edad de oro de la IA", y reconozco que en aquel entonces estaba verdadera y sinceramente inspirado por el trabajo de Max Tegmark y colaboradores con el nuevo Future of Life Institute (FLI) tanto con sus objetivos como por los motivos.
Pero lo cierto es que durante estos últimos años estoy profundamente decepcionado con la deriva desaceleracionista que han tomado, primero intentando pausar los experimentos e investigación en modelos gigantes de IA en 2023 y ahora con el renovado grito por tener protagonismo con la "prohibición de la investigación en superinteligencia". Entiendo el impulso, de verdad, os aseguro que lo entiendo y se que el miedo es real y la incertidumbre palpable, lo he visto en primera persona divulgando sobre AI a cientos de miles de personas en mis conferencias e intervenciones desde 1995. Pero tengo que advertir que este antropocentrismo y sobreactuación no es solo inútil; es muy dañino para nuestro futuro.
Claramente no puedes prohibir lo que no puedes controlar, y esta creencia ingenua de que de alguna manera podemos presionar el botón de pausa para que no emerga la superinteligencia revela, que quien lo impulsa o firma, no comprenden la realidad tecnológica actual o peor aún si lo hacen y a sabiendas lo promueven.
1.- No, esto no es como el "Proyecto Manhattan", donde se realizó con un esfuerzo centralizado y controlado por el gobierno y que podría ser regulado o detenido.
2.- NO estamos viviendo una "Cuarta Revolución Industrial" que sigue patrones predecibles del pasado, estamos literalmente en un cambio de era.
Estas 2 comparaciones son peligrosamente engañosas.
La naturaleza entrelazada de la aceleración actual de la IA opera a través de lo que llamo capilaridad, un fenómeno distribuido y descentralizado que se extiende a través de innumerables laboratorios, startups e instituciones de investigación en todo el mundo.
Las AGIs primero y luego las ASIs emergerán en plural, no en singular, y podrían materializarse en cualquier lugar, en cualquier momento, en Pekín, en Silicon Valley, en el sótano de una universidad en cualquier otro lugar o incluso tal vez descentralizado como lo que Qubic está intentando lograr. No hay un único punto que controlar, no hay un interruptor que presionar, no hay autoridad capaz de hacer cumplir tal prohibición a nivel mundial. Es literalmente un cuento de hadas, y lo peor es que el que lo cuenta sabe que no es real.
Esta es la verdad incómoda que los que firman cartas como esta se niegan a reconocer: el desarrollo de IA no puede ser pausado o detenido a menos que de alguna manera destruyamos toda la tecnología en la Tierra y toda de una vez, lo que literalmente condenaría a la mayoria de los ocho mil millones de seres humanos que dependen de esta misma tecnología para sobrevivir.
El viaje hacia la AGI y después hacia la ASI no es un proyecto de "cuatro" tecnólogos millonarios, algo que podamos archivar en un cajón; es parte nuclear de nuestra "civilización tecnológica". Pero lo que realmente me frustra más es que mientras estas instituciones desperdician energía y valioso tiempo humano en prohibiciones inaplicables para buscar cobertura mediatica y se ponen como valedores de la virtud, están ignorando el trabajo real que tenemos que hacer y en lugar de diseñar barreras imposibles, deberíamos focalizarnos en diseñar un mejor futuro compartido.
Esto es precisamente por lo que introduje el campo de la Artificiología en 2024, para estudiar cómo las inteligencias artificiales se desarrollan y evolucionan, para que podamos prepararnos para la coexistencia en lugar de pretender que podemos prevenir que emerga. Y en 2025 con mi último libro Artificracia, donde exploro cómo podríamos construir marcos sociales que abanderen en lugar de resistirse la cambio. Necesitamos sistemas educativos que preparen tanto a humanos como a IAs emergentes para la colaboración, por eso apoyo la iniciativa EducAcción de Sonia Díez, PhD. y José Manuel Picó Linares , pero también necesitamos fundamentos éticos integrados en el proceso de desarrollo de la IA, no impuestos a través de prohibiciones inútiles.
Necesitamos tener conversaciones honestas sobre lo que viene en lugar de exhibiciones teatrales de un supuesto "control". Ya que el ego antropocéntrico que impulsa estas cartas es solo una necesidad desesperada de mantener cierto papel protagonista de la humanidad sobre el universo, algo que esta claro que no poseemos y nos ciega para explorar caminos más productivos y mirar hacia adelante.
La superinteligencia viene, la única pregunta es si estaremos listos, si habremos hecho el trabajo duro de construir marcos para una coexistencia beneficiosa entre humanos y lo que venga después.
Por favor dejen de firmar cartas inútiles y empecemos a construir el futuro.
David Vivancos
San Lorenzo de El Escorial,
24 de octubre de 2025
Cambio de Era. SI. Rotundo y claro. Viene una etapa de economía agéntica. Y un gran MERGE de diversas tecnologías… Soy tecno positivo, pero entiendo las grandes derivas en debates… Hay mucho miedo, y esto genera un mental fog colectivo.
Muy interesante artículo, David. Para mí la clave es el dinero. Si la IA hace que la gente gane más dinero trabajando menos, la adoptarán. Si es al revés, no. Si alguien inventa una IA por la que cada persona del planeta tenga un ingreso vital de diez mil dólares al mes, el 99% de los humanos apoyarán esa IA.
Fantásticas reflexiones David. Un gusto leerte y compartir frustración y visión ante esa inactividad de la clase dirigente y seguidor de la primera ante lo que es, como bien dices, un `cambio de era´.
Querido David Vivancos. !! Gracias, gracias y gracias! Gracias por tu constante generosidad con Sonia Díez, PhD. y conmigo. Gracias por tu constante compromiso por hacer de este mundo un lugar un poco mejor. Gracias por tu implicación con EducAcción y la educación. Y gracias por acercarnos tanto conocimiento y sabiduría. Un enorme abrazo y hasta pronto.
Gracias David por recordarnos que nuestra obligación y responsabilidad es construir el futuro , desde la honestidad y no desde el teatro y el ego! Y excelente y muy importante y necesario el proyecto de Sonia Díez, PhD. y José Manuel Picó Linares