Diese Präsentation wurde erfolgreich gemeldet.
Wir verwenden Ihre LinkedIn Profilangaben und Informationen zu Ihren Aktivitäten, um Anzeigen zu personalisieren und Ihnen relevantere Inhalte anzuzeigen. Sie können Ihre Anzeigeneinstellungen jederzeit ändern.

Singularidad tecnológica

avances en tecnología y humanos

  • Loggen Sie sich ein, um Kommentare anzuzeigen.

Singularidad tecnológica

  1. 1. La singularidad tecnológica es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. DEFINICIÓN
  2. 2. La singularidad propone un escenario que parece de ciencia ficción, pero a la velocidad que vemos avanzar la ciencia y la computación, un mundo controlado por máquinas no termina por sonar del todo descabellado.
  3. 3. Según el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puede alcanzar por diferentes caminos: CAMINO HACIA LA SINGULARIDAD
  4. 4. CAMINO HACIA LA SINGULARIDAD 1. El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere (superinteligencia artificial).
  5. 5. 2. El desarrollo de redes de computadoras que se comporten como superneuronas de un cerebro distribuido que "despierte" como ente inteligente (superinteligencia colectiva). CAMINO HACIA LA SINGULARIDAD
  6. 6. 3. El desarrollo de elementos de interacción con computadoras que permitan a un humano comportarse como un ser superinteligente (superinteligencia híbrida). CAMINO HACIA LA SINGULARIDAD
  7. 7. 4. Manipulaciones biológicas que permitan mejorar en algunos seres el nivel humano de inteligencia (superinteligencia biológica) CAMINO HACIA LA SINGULARIDAD
  8. 8. El gran maestro de la ciencia ficción, Isaac Asimov, para muchos un profeta de los tiempos que vivimos, postuló en 1942 dentro de su cuento Run around las Tres Leyes de la Robótica, normas ideadas por el escritor a las que los robot tendrían que ceñirse para que los humanos nos mantuviésemos a salvo TRES LEYES DE LA ROBÓTICA
  9. 9. 1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño. 2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley. 3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley. TRES LEYES DE LA ROBÓTICA
  10. 10. La singularidad tecnológica es una hipótesis que sugiere que la velocidad tan acelerada a la que progresa la tecnología provocará que la inteligencia artificial tarde o temprano exceda la capacidad intelectual de los humanos y por ende el control que tenemos sobre ella. Esto cambiará para siempre la civilización o terminará con ella.
  11. 11. Una idea increíblemente interesante y bastante aterradora a su vez. La singularidad, si lo pensamos bien, es el tema en películas como Matrix o Terminator, que plantean un escenario en el que la civilización ha llegado a un estado en el que las máquinas han sobrepasado la inteligencia humana y han tomado el control.
  12. 12. Postulada por Gordon Moore en 1965, esta ley empírica ha logrado anticipar el patrón de comportamiento de los microprocesadores, indicando que cada 18 meses aproximadamente, el número de transistores en un circuito integrado se duplica, y su coste se reduce. La Ley de Moore ha venido cumpliéndose por más de medio siglo, y de continuar haciéndolo, el progreso tecnológico sería ¿infinito? LEY DE MOORE
  13. 13. Si la Ley de Moore se sigue cumpliendo y la inteligencia artificial alcanza un punto en el que los robots empiecen a crear nuevos y mejores robots, más inteligentes, ¿por que no olvidarse de cualquier variante de las leyes de Asimov que los humanos hayan podido implantar en su programación? Después de todo serían máquinas creando máquinas, y la humanidad podría convertirse en una especie obsoleta que no merece ser conservada.
  14. 14. Los defensores de la singularidad son conscientes de las amenazas que esta implica y consideran los siguientes riesgos existenciales:  Inteligencia artificial mal programada.  Mal uso de la nanotecnología.  Mala utilización de la biotecnología. RIESGOS
  15. 15. • Uso generalizado de las prótesis (convirtiéndose en un robot). • Tecnologías autónomas que se escapan de las manos (máquinas que se auto construyen a si mismas). RIESGOS
  16. 16. Aunque todas estas posibilidades sean probablemente imposibles de comprender y mucho menos de predecir, muchos ya se han atrevido a decir que dentro de 20 o 30 años alcanzaremos un nivel de superinteligencia que permitirá que la singularidad suceda en algún momento. Y aunque todo parezca sacado de un libro de ciencia ficción, si miramos con detenimiento el mundo en el que estamos viviendo, nos damos cuenta de que no todo son coincidencias divertidas, y que hay mucho basado en la realidad. CONCLUSIÓN
  17. 17. SINGULARIDAD FUTURO CAMBIO SOCIAL FICCIÓN COMPUTACIÓN MAQUINAS SUPERNEURONAS ISAAC ASIMOV GORDON MOORE MICROPROCESADOR PROGRESO ROBOTS NANOTECNOLOGÍA BIOTECNOLOGÍA TECNOLOGÍA AUTÓMATA

×