Según Elon Musk la singularidad tecnológica ya ha comenzado: qué es y por qué debería preocuparnos
La superinteligencia está cerca
En matemáticas y muy a grandes rasgos, la singularidad es un punto donde las ecuaciones se rompen o divergen al infinito, como en un agujero negro, pero en tecnología, campo en el que el término se acuñó muchos años antes de lo que cualquiera podría imaginar, la cosa es un poco distinta, aunque no demasiado.
Utilizado por el matemático húngaro-estadounidense John von Neumann, uno de los padres de la informática moderna, durante los años 50, no fue él sino su colega Stanisław Ulam quien lo reportó en 1958, recordando conversaciones con von Neumann sobre el "progreso acelerado de la tecnología y los cambios en la vida humana, que da la apariencia de aproximarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podrían continuar".
Más tarde, en 1965, I.J. Good, matemático, describió la "explosión de inteligencia", donde una máquina ultrainteligente diseñaría versiones mejores de sí misma. El teórico computacional Vernor Vinge popularizó el concepto en 1993, comparándolo con un horizonte de eventos, y el inventor y científico Ray Kurzweil lo puso de moda allá por 2005, prediciendo su llegada alrededor de 2045. Parece que se equivocaba.
Elon Musk avisa
Es precisamente a ese momento al que ha aludido recientemente Elon Musk, quien no ha dudado en responder un post del que fuera el primer embajador creativo de xAI, Dogan Ural, a este respecto. El empresario, muy vinculado al desarrollo de la inteligencia artificial a través de compañías como la propia xAI y Tesla, sostiene que la singularidad ya ha comenzado.
We are in the beginning of the Singularity https://t.co/Jt4IgNcBJ4
— Elon Musk (@elonmusk) February 1, 2026
Qué es y por qué debería preocuparnos
La singularidad tecnológica es un hipotético punto de no retorno en el avance tecnológico, donde el progreso se acelera de manera incontrolable, llevando a cambios impredecibles en la civilización humana.
Más allá de este umbral, el mundo se transformaría radicalmente, ya que la inteligencia artificial superaría a la humana en todos los aspectos, haciendo imposible predecir el futuro desde nuestra perspectiva actual.
Este concepto, inspirado en la física de los agujeros negros, implica un big bang de innovación que podría resolver problemas globales como la pobreza o las enfermedades, pero también plantea riesgos existenciales, como la pérdida de control humano sobre la IA, desigualdades masivas o incluso la extinción de la especie si la superinteligencia no se alinea con valores humanos.
Cómo se llega a ella
El camino hacia la singularidad comienza con el desarrollo de una inteligencia artificial general (AGI) que iguala o supera la inteligencia humana en tareas cognitivas amplias, lo que permite a esta IA mejorarse a sí misma de forma recursiva, generando versiones cada vez más inteligentes y eficientes en un ciclo exponencial que acelera el progreso tecnológico a velocidades inimaginables.
La IA pasaría de mejoras anuales a diarias o incluso horarias, culminando en una superinteligencia que resuelve problemas complejos instantáneamente y transforma industrias enteras, desde la medicina hasta la energía, aunque este despegue podría ocurrir sin que lo notemos hasta que sea demasiado tarde, ya que la transición de AGI a singularidad podría ser sutil al principio pero explosiva en sus consecuencias finales.
Sam Altman y otros también lo creen
Elon Musk no está solo en esta visión. Sam Altman, consejero delegado de OpenAI, ha advertido en varias ocasiones de que la inteligencia artificial general podría llegar antes de lo previsto y situarnos peligrosamente cerca de la singularidad. Altman ha señalado tanto las enormes oportunidades como los riesgos sistémicos que implica una IA con capacidades generales, especialmente si no existe un marco claro de gobernanza mundial.
Otros desarrolladores y expertos en inteligencia artificial han expresado inquietudes similares, reconociendo que están construyendo sistemas cuyo impacto futuro no pueden predecir con certeza. El debate ya no gira en torno a si la singularidad llegará, sino a si seremos capaces de gestionarla antes de que nos supere.