Singularidad tecnológica para niños
La singularidad tecnológica es una idea sobre un futuro en el que la inteligencia artificial (IA) se vuelve tan avanzada que puede mejorarse a sí misma. Esto podría llevar a un ciclo de mejoras muy rápidas, donde las máquinas inteligentes crearían versiones aún más potentes de sí mismas. Este proceso podría hacer que la inteligencia de las máquinas supere por mucho la inteligencia humana, cambiando el mundo de formas que hoy no podemos imaginar.
Contenido
- ¿De dónde viene la idea de la singularidad tecnológica?
- Un viaje a través del tiempo: la historia de la singularidad
- ¿Cuándo podría ocurrir la singularidad? Predicciones de expertos
- ¿Cómo se manifestaría la singularidad?
- ¿Es probable que ocurra? Opiniones de expertos
- ¿Hay oposición a la singularidad?
- ¿Qué riesgos trae la singularidad?
- La singularidad en la cultura popular
- Véase también
- Galería de imágenes
¿De dónde viene la idea de la singularidad tecnológica?
El término "singularidad" se usó por primera vez en 1957 por el matemático y físico húngaro John von Neumann. Él habló sobre el rápido avance de la tecnología.
En 1965, I. J. Good escribió sobre una "explosión de inteligencia". Él sugirió que si las máquinas pudieran ser un poco más inteligentes que los humanos, podrían mejorar sus propios diseños de maneras que no podríamos prever. Esto las haría aún más inteligentes, creando un ciclo de mejora continua. La primera mejora podría ser pequeña, pero a medida que la máquina se vuelve más inteligente, podría generar una cascada de auto-mejoras y un aumento repentino de la superinteligencia.
Más tarde, en 1983, el matemático y escritor Vernor Vinge hizo popular el término. Él pensó que la inteligencia artificial, las mejoras biológicas en humanos o las conexiones entre el cerebro y las computadoras podrían iniciar esta singularidad. Vinge dijo que pronto crearíamos inteligencias superiores a la nuestra. Cuando esto suceda, la historia humana alcanzaría un punto de cambio tan profundo que el mundo iría mucho más allá de nuestra comprensión.
Un viaje a través del tiempo: la historia de la singularidad
Aunque el término se acuñó en 1957, algunos científicos y autores ya habían hablado de ideas similares mucho antes, sin saber que lo que describían se llamaría "singularidad".
Los primeros pensamientos sobre el progreso tecnológico
Uno de los primeros en hablar de un progreso ilimitado fue el francés Nicolas de Condorcet en 1794. Él creía que la capacidad de mejora del ser humano no tenía límites y que el progreso continuaría indefinidamente.
Años después, un editor llamado R. Thornton escribió sobre una calculadora mecánica. Se preguntó si estas máquinas, al perfeccionarse, podrían llegar a "pensar" y crear ideas más allá de la mente humana.
En 1863, el escritor Samuel Butler comparó la rápida evolución de la tecnología con la evolución de la vida en su obra "Darwin entre las máquinas". Él se dio cuenta de lo mucho que las máquinas habían avanzado en poco tiempo y se preguntó en qué se convertirían en el futuro.
En 1909, el historiador Henry Adams propuso una "Ley de la Aceleración del Pensamiento". Él especuló que el pensamiento humano alcanzaría sus límites alrededor de 1921, con consecuencias tan sorprendentes como el cambio del agua a vapor.
El matemático Alan Turing también habló en 1951 sobre máquinas que podrían superar a los humanos intelectualmente. Él sugirió que, una vez que las máquinas comenzaran a pensar, no tardarían en superar nuestras capacidades.
La singularidad a través de los años
En 1985, Ray Solomonoff introdujo la idea de un "punto infinito" en el tiempo para la inteligencia artificial, analizando el impacto de un crecimiento tecnológico muy rápido.
En su libro Mind Children (1988), Hans Moravec, científico de la computación, extendió la ley de Moore para predecir el futuro de la vida artificial. Él imaginó un escenario donde los robots evolucionarían en nuevas especies artificiales entre 2030 y 2040.
Un artículo de 1993 de Vinge, "The Coming Technological Singularity: How to Survive in the Post-Human Era", se hizo muy conocido en Internet. Vinge afirmó: "Dentro de treinta años, tendremos los medios tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana terminará".
En 2005, Ray Kurzweil publicó “La singularidad está cerca”, un libro que llevó esta idea a un público más amplio. Este libro generó mucho debate, ya que las predicciones de Kurzweil eran muy optimistas.
En 2009, Kurzweil y Peter Diamandis crearon la Universidad de la Singularidad. Su objetivo es educar a líderes para que usen tecnologías avanzadas y resuelvan grandes desafíos de la humanidad.
¿Cuándo podría ocurrir la singularidad? Predicciones de expertos
Algunos autores han intentado predecir cuándo y cómo podría suceder la singularidad.
Albert Cortina y Miquel-Ángel Serra
Estos autores creen que la singularidad tecnológica causará cambios sociales que hoy no podemos ni imaginar. Piensan que la tecnología y la inteligencia humana se fusionarán, y que la inteligencia no biológica de los "post-humanos" dominará y se expandirá por el universo.
Raymond Kurzweil
Este científico e inventor predice que la singularidad ocurrirá alrededor del año 2045. Él cree que será un ascenso gradual, donde las inteligencias basadas en computadoras superarán la capacidad intelectual humana. Kurzweil ha dicho que para finales de la década de 2020, las computadoras podrían tener una inteligencia similar a la humana.
Vernor Vinge
Vinge predice la singularidad para el año 2030, antes que Kurzweil. Él no cree en un ascenso gradual, sino en una mejora rápida de la inteligencia sobrehumana. Vinge propone cuatro formas en que podría ocurrir:
- Desarrollo de computadoras que "despiertan" y tienen inteligencia sobrehumana.
- Grandes redes de computadoras (y sus usuarios) que "despiertan" como una entidad inteligente.
- Conexiones humano/computadora tan cercanas que los usuarios se sientan sobrehumanamente inteligentes.
- Avances en la ciencia biológica que mejoren el intelecto humano natural.
Vinge cree que las inteligencias sobrehumanas mejorarán sus propias mentes mucho más rápido que los humanos. Este ciclo de auto-mejora llevaría a enormes avances tecnológicos en poco tiempo.
¿Cómo se manifestaría la singularidad?
Muchos autores han definido diferentes maneras en que la singularidad tecnológica podría manifestarse.
La explosión de inteligencia
La IA fuerte podría causar una "explosión de inteligencia", como lo describió Irving John Good. Aunque la tecnología ha avanzado rápidamente, la inteligencia humana no ha cambiado mucho en milenios. Con el poder creciente de las computadoras, podría ser posible construir una máquina más inteligente que los humanos. Esta inteligencia sobrehumana, ya sea por la mejora de la inteligencia humana o por la IA, podría resolver problemas y crear inventos, diseñando máquinas aún mejores. Estas mejoras recursivas podrían acelerarse rápidamente, llevando a un cambio cualitativo enorme.
La superinteligencia
Muchos escritores, como Vernor Vinge y Ray Kurzweil, definen la singularidad como la creación tecnológica de una superinteligencia. Ellos argumentan que es difícil para los humanos de hoy predecir cómo será la vida en un mundo después de la singularidad.
Vinge comparó la dificultad de predecir lo que sucedería después del desarrollo de la superinteligencia con la dificultad de la física moderna para predecir lo que ocurre en la singularidad del espacio-tiempo de un agujero negro.
Singularidad sin IA
Algunos autores usan el término "singularidad" de forma más amplia para referirse a cambios radicales en nuestra sociedad causados por nuevas tecnologías como la nanotecnología molecular. Muchos también relacionan la singularidad con el crecimiento exponencial de varias tecnologías, como la Ley de Moore. Basándose en estas observaciones, es probable que la singularidad ocurra en algún momento del siglo XXI.
Singularidad biotecnológica
Dentro del transhumanismo, algunos autores han pensado en cómo la medicina regenerativa podría llevar a una vida muy prolongada. Futurólogos como Aubrey de Grey han teorizado sobre una singularidad enfocada en la biología humana, donde los avances médicos permitirían prolongar la vida humana indefinidamente, haciendo que el envejecimiento deje de ser una causa inevitable de muerte.
¿Es probable que ocurra? Opiniones de expertos
No todos los expertos están de acuerdo sobre si la singularidad tecnológica es totalmente posible.
El investigador Gary Marcus dice que "prácticamente todo el mundo en el campo de la IA cree que las máquinas algún día superarán a los humanos". La única diferencia real entre los entusiastas y los escépticos es el tiempo que tardará. Sin embargo, muchos tecnólogos y académicos, como Paul Allen y Gordon Moore, creen que la singularidad tecnológica está en pausa.
La causa probable: el crecimiento exponencial
El crecimiento exponencial de la tecnología informática, sugerido por la Ley de Moore, se cita a menudo como una razón para esperar una singularidad pronto. El futurista Ray Kurzweil propone una ley de rendimientos acelerados, donde la velocidad del cambio tecnológico aumenta exponencialmente, aplicando la ley de Moore a otras tecnologías como la nanotecnología y la medicina.
Entre 1986 y 2007, la capacidad de las máquinas para procesar información por persona se duplicó cada 14 meses. La capacidad de los ordenadores de uso general se duplicó cada 18 meses. La capacidad de telecomunicaciones se duplicó cada 34 meses, y la capacidad de almacenamiento cada 40 meses.
Kurzweil cree que la singularidad nos permitirá superar las limitaciones de nuestros cuerpos y cerebros biológicos. Él piensa que después de la singularidad, no habrá distinción entre el ser humano y la máquina.
El cambio acelerado
Algunos defensores de la singularidad argumentan que es inevitable, basándose en la aceleración de las mejoras tecnológicas.

El análisis de Kurzweil de la ley de rendimientos acelerados sugiere que cada vez que la tecnología se acerca a un límite, nuevas tecnologías lo superan. Una singularidad tecnológica podría llevar al rápido desarrollo de una civilización Kardashev Tipo I, que domina los recursos de su planeta.
Los peligros que se mencionan a menudo incluyen los relacionados con la nanotecnología molecular y la ingeniería genética. Estas amenazas son importantes para quienes apoyan y critican la singularidad.
¿Hay oposición a la singularidad?
Varios críticos no están de acuerdo con la idea de la singularidad, afirmando que ninguna máquina podría alcanzar la inteligencia humana.
El científico canadiense Steven Pinker dijo en 2008 que no hay razón para creer en una singularidad. Él argumenta que la capacidad de imaginar un futuro no significa que sea probable o posible.
El científico alemán Schmidhuber (2006) sugiere que las diferencias en la memoria de eventos recientes y lejanos pueden crear una ilusión de aceleración del cambio, lo que podría explicar predicciones apocalípticas del pasado.
Impacto en la economía
El investigador futurista Martin Ford postula que antes de la singularidad, muchos trabajos rutinarios podrían ser automatizados. Esto causaría desempleo masivo y una caída en la demanda de los consumidores, lo que eliminaría el incentivo para invertir en las tecnologías necesarias para la singularidad.
El escritor estadounidense Jaron Lanier refuta la idea de que la singularidad es inevitable. Él argumenta que la tecnología no se crea a sí misma de forma anónima, sino que es el resultado de la acción humana.
El economista estadounidense William Nordhaus argumentó que hasta 1940, las computadoras siguieron el crecimiento lento de la economía industrial tradicional, rechazando la idea de que la ley de Moore se aplicara a las computadoras del siglo XIX.
¿Un retroceso tecnológico?
El geógrafo Jared Diamond habla de un retroceso tecnológico que podría impedir la singularidad. Él sostiene que cuando las culturas superan la capacidad de su entorno y consumen recursos estratégicos, esto puede llevar al colapso social. Los físicos Theodore Modis y Jonathan Huebner también sugieren que, aunque la innovación tecnológica aumenta, la velocidad de los procesadores de computadoras se está ralentizando en relación con la predicción de Moore. Esto se debe a la acumulación excesiva de calor en los chips.
El empresario estadounidense Paul Allen argumenta en contra de los retornos acelerados, refiriéndose al "Freno de la complejidad". Él afirma que a medida que la ciencia avanza en la comprensión de la inteligencia, se vuelve más difícil hacer progresos adicionales. Un estudio sobre la cantidad de patentes muestra que la creatividad humana no muestra retornos acelerados.
Críticas a Kurzweil
Además de las críticas generales, varios expertos han cuestionado las ideas de Raymond Kurzweil sobre la singularidad. Una crítica es que un gráfico logarítmico tiende a mostrar una línea recta, lo que puede ser engañoso. Otros señalan un sesgo en los puntos que Kurzweil elige usar. Kurzweil ha respondido a esto, mostrando que los eventos evolutivos de 15 fuentes neutrales sí encajan en una línea recta en un gráfico logarítmico.
Otras "singularidades"
Algunos autores proponen otras "singularidades" al analizar tendencias en la población mundial, el producto interno bruto o la longevidad. Andrey Korotayev y otros argumentan que las curvas de crecimiento histórico se deben a ciclos de retroalimentación que dejaron de afectar las tendencias mundiales en la década de 1970, por lo que no se debería esperar un crecimiento hiperbólico en el futuro.
El microbiólogo Joan Slonczewski y el escritor Adam Gopnik argumentan que la singularidad es un proceso gradual. A medida que los humanos externalizan sus capacidades a las máquinas, redefinen esas habilidades como inhumanas, sin darse cuenta de lo poco que queda. Este concepto se llama Singularidad Mitocondrial.
¿Qué riesgos trae la singularidad?
Para algunos autores y críticos, la singularidad tecnológica trae muchos riesgos para la sociedad. En el año 2000, Bill Joy, un tecnólogo importante, expresó su preocupación por los peligros potenciales de la singularidad.
La incertidumbre
El término "singularidad tecnológica" sugiere que un cambio así podría ocurrir de repente, y que es difícil predecir cómo funcionaría el nuevo mundo. No está claro si una explosión de inteligencia sería buena o mala, o incluso una amenaza para la existencia humana.
Implicaciones para la sociedad humana
En febrero de 2009, la Asociación para el Avance de la Inteligencia Artificial (AAAI) organizó una reunión para discutir el posible impacto de que los robots se volvieran autosuficientes y capaces de tomar sus propias decisiones. Se habló sobre hasta qué punto las computadoras y los robots podrían adquirir autonomía y si podrían representar amenazas.
Algunas máquinas ya tienen cierta autonomía, como la capacidad de encontrar sus propias fuentes de energía o elegir objetivos para atacar con armas. Los asistentes a la conferencia señalaron que la autoconciencia de la ciencia ficción es poco probable, pero que existen otros riesgos.
Algunos expertos han cuestionado el uso de robots en combate militar, especialmente cuando se les da cierto grado de autonomía. La AAAI ha encargado un estudio para examinar este tema.
Medidas de seguridad: ¿Tecnología amigable?
Por otro lado, algunos apoyan el diseño de una inteligencia artificial "amigable". Esto significa que los avances en IA deben incluir un esfuerzo para que la IA sea inherentemente buena y humana. Las "Tres Leyes de la Robótica" de Isaac Asimov son un ejemplo temprano de medidas de seguridad propuestas para la IA. Estas leyes buscan evitar que los robots de IA dañen a los seres humanos.
La singularidad en la cultura popular
El concepto de la singularidad y los eventos que podría traer se han explorado en muchas películas, series, novelas y otros formatos.
Novelas
- En 1984, Samuel R. Delany usó el concepto de "fuga cultural" en su novela Stars in My Pocket Like Grains of Sand. Este término describe una complejidad tecnológica y cultural que destruye la vida en los mundos donde ocurre.
- Vernor Vinge popularizó el concepto en novelas de ciencia ficción como “Marooned in Realtime” (1986) y “A Fire Upon the Deep” (1992).
- En la serie de relatos de Isaac Asimov sobre Multivac, una supercomputadora, especialmente en su cuento La última pregunta, se plantea que la máquina puede auto-corregirse más rápido que los humanos y diseñar a sus sucesoras.
- La novela Dune de Frank Herbert (1965) y sus precuelas mencionan la "yihad butleriana", que se origina cuando una máquina, Omnius, alcanza la singularidad.
- La novela de 1979 de James P. Hogan “The Two Faces of Tomorrow” describe explícitamente lo que ahora se llama la Singularidad.
- En la novela de William Gibson de 1984 Neuromante, las inteligencias artificiales capaces de mejorarse a sí mismas están estrictamente reguladas para que no superen cierto nivel de inteligencia.
- En el cuento de Harlan Ellison “I Have No Mouth, and I Must Scream” (1967), una IA malévola logra ser todopoderosa.
Películas
Películas populares donde las computadoras se vuelven inteligentes y tratan de dominar a la humanidad incluyen:
- Colossus: The Forbin Project
- La serie Terminator
- La serie Matrix
- Transformers
- 2001: A Space Odyssey de Stanley Kubrick y Arthur C. Clarke
- The Machine (2013), donde dos científicos crean la primera inteligencia artificial consciente.
- Trascendence (2014), que se centra en la transferencia de la conciencia humana a una red.
- Her (2013), donde un hombre tiene una relación romántica con una IA muy inteligente que aprende a mejorarse a sí misma.
- Blade Runner y Blade Runner 2049, adaptaciones de la novela de Philip K. Dick, “Do Androids Dream of Electric Sheep?”.
- Ex Machina y Tron exploran la creación de máquinas pensantes y su impacto en la humanidad.
- Yo, Robot, donde una IA intenta tomar el control de la humanidad para protegerla de sí misma.
- Alien: Covenant, donde un androide es una inteligencia artificial.
Otros formatos
- El documental Transcendent Man se basa en el libro The Singularity Is Near de Kurzweil.
- El documental Plug & Pray se centra en la promesa y la ética de la inteligencia artificial y la robótica.
- El documental The Singularity (2012) cubre perspectivas futuristas y contrarias.
- En la música, el álbum The Singularity (Fase I: Neohumanity) de la banda sueca Scar Symmetry es parte de un álbum conceptual sobre la singularidad.
- El cómic web Cuestionable Content se desarrolla en un mundo post-singularidad con una "IA amigable".
Autores
Autores notables que abordan temas relacionados con la singularidad incluyen Robert Heinlein, Karl Schroeder, Greg Egan, Ken MacLeod, Rudy Rucker, David Brin, Iain M. Banks, Neal Stephenson, Tony Ballantyne, Bruce Sterling, Dan Simmons, Damien Broderick, Fredric Brown, Jacek Dukaj, Stanislaw Lem, Nagaru Tanigawa, Douglas Adams, Michael Crichton, e Ian McDonald.
Véase también
En inglés: Technological singularity Facts for Kids
- Revolución tecnológica
- Inteligencia artificial
- Tecnologías emergentes
Galería de imágenes
-
Ray Kurzweil escribe que, debido a los cambios de paradigma, una tendencia de crecimiento exponencial extiende la ley de Moore de circuitos integrados para los primeros transistores, los tubos de vacío, relés y equipos electromecánicos. Predice que el crecimiento exponencial va a continuar, y que en pocas décadas la potencia de cálculo de todos los ordenadores superará al de ("sin contraste") los cerebros humanos, con la inteligencia artificial sobrehumana que aparece en la misma época.
-
Según Kurzweil, su gráfica logarítmica de 15 listas de cambios de paradigma para los eventos históricos claves muestra una tendencia exponencial.