
Seguramente has visto alguna película de ciencia ficción en la que al superordenador o la inteligencia artificial de turno se le zafa una tuerca, enloquece, e intenta acabar con la humanidad. A pesar de lo remañido de este argumento, lo cierto es que una situación semejante podría ocurrir algún día y -estamos seguros- no sería nada agradable. Es por eso que científicos de la Universidad de Louisville han propuesto la creación de una prisión virtual para inteligencias artificiales que nos mantenga a salvo en el futuro.
¿Cuántas veces hemos leído una historia en la que un superordenador o un ejército de robots inteligentes amenazan la existencia de la humanidad? Los escritores de Ciencia Ficción aman ese tipo de argumentos, y los avances que vamos viendo en materia de Inteligencia Artificial (IA, robótica y armas automáticas no hacen más que reforzar la idea de que un futuro semejante es posible. Ante este escenario, los científicos de la Universidad de Louisville ,en Kentucky (EE.UU.), dirigidos por Roman Yampolskiy están trabajando en unas especie de prisión virtual para mantener las inteligencias artificiales lejos del mundo real. La idea, en el fondo, es muy simple: se trata de contener la inteligencia artificial, aislándola antes de que crezca peligrosamente, tome conciencia de sí misma y se convierta en una versión real de Skynet. Yampolskiy cree que para conseguir un sistema de contención exitoso se necesita una planificación muy cuidadosa, que evite a la IA amenazar, sobornar o seducir de alguna manera a quienes están a cargo de la seguridad, o simplemente abrirse camino hacia la libertad mediante la fuerza fruta.
“Una IA lo suficientemente avanzada puede descubrir nuevas vías de ataque, poner en marcha sofisticados ataques de ingeniería social y reutilizar los componentes de hardware que tiene bajo su control de formas no previstas por sus creadores”, dice Yampolskiy. "Este tipo de software no se limitará a infectar ordenadores y redes, sino que puede influir sobre la psique humana, sobornar, chantajear e intentar lavar el cerebro de las personas que se encuentran en o con ella." Un aspecto interesante de este trabajo es que, como efecto colateral, proporcionará mejores y más eficientes sistemas de ciberseguridad y criptografía. La propuesta del equipo de Louisville ha sido publicada en la edición de marzo del Journal of Consciousness Studies, y explica que una de las soluciones de partida consistiría en atrapar la IA dentro de una especie de "máquina virtual" que se ejecute dentro el de la IA a los recursos de software y hardware que posea el ordenador anfitrión. Aislar la IA impidiendo su a Internet impediría que programas escritos por ella consigan controlar otros ordenadores, sumándolos a “la causa”. Y si todo esto falla, los investigadores siempre pueden reducir la velocidad de la IA, haciendo que sus “pensamientos” discurran a una velocidad lo suficientemente baja como para que los responsables humanos puedan presionar el botón "reset" o -más drástico aún- cortar el suministro eléctrico del ordenador en que reside.
Dado que aún no hemos desarrollado una IA poderosa, no tenemos forma de probar estos conceptos. Pero, a su vez, tampoco es muy inteligente crear una IA sin tener un sistema de seguridad funcionando. Una posible solución a este dilema es probar los esquemas de seguridad atacándolos con hackers o especialistas en seguridad informática. Yampolskiy cree que una IA podría utilizar trucos psicológicos como la amistad o el chantaje cuando interactúa con humanos, ofreciendo “premios” como la salud perfecta, la inmortalidad, o tal vez incluso volver a la vida familiares o amigos muertos. Por supuesto, también podría amenazar con hacer cosas terribles al ser humano que tiene enfrente, o a la humanidad toda. Pero a pesar de todas las ideas expuestas por estos expertos, algunos colegas creen que será imposible mantener una IA inteligente encerrada para siempre. Incluso una IA “tan poco inteligente como un humano” podría terminar burlando muchos de los esquemas de protección propuestos si se le permite intentarlo durante un tiempo lo suficientemente largo. Obviamente, esto no significa que debamos dejar de trabajar en el campo de la IA o en los esquemas de protección, sino que necesitamos hacerlo con todo el cuidado posible. ¿Qué te parece?
Me parece que para llegar a una IA tan poderosa falta mucho, y que invertir esfuerzos en ese sistema de seguridad es fútil.
Todavia no crearon una IA lo suficientemente poderosa y ya están buscando la forma de frenarlo... Es raro como funciona el cerebro humano. Siempre concientes a la hora de crear cosas que solo sirven para atentar contra la humanidad.
Es entendible que la mente humana siempre estuvo en la busqueda de conocer mas, de lograr mas cosas, pero tienen que darse cuenta que el día que una maquina tenga una IA avanzada, nos va a dejar sin trabajo a muchos... No comparto la visión apocaliptica que tiene la mayoria hacia la robotica y los avances en la inteligencia artificial pero si me parece que una maquina va a poder reemplazar mano de obra inteligente, y esto va a generar 2 cosas: más dinero para los que ya tienen, y nada de dinero para el trabajador que lo necesita...
Ya muchas maquinas al dia de hoy reemplazan el trabajo del hombre, hasta cuando la humanidad va a seguir reemplazando al hombre por la maquina?
Pienso como los anteriores. Un tema para hablar por diversión un ratito, pero no para tomar para nada en serio, ya que no tiene sentido gastar recursos en algo para que en el mejor de los casos falta mucho para llegar
No concuerdo en que falta mucho, para mi no estamos muy lejos de crearlo, quizas en 10 / 15 años ya este.
No vean a la inteligencia artificial como un robot parado como en la peli "Yo Robot". donde corre y ayuda a la gente (o la mata)
Si no piensen en una IA, como una software, un virus, y que con a internet, hace estragos.
Hoy en dia ya hay virus, que mutan y que son dificiles de parar, recuerden los ultimos casos de gusanos que hubo. Tal y como era Skynet, que no habia un "nucleo", si no que estaba en todos lados.
Ademas piensen en algo, la "tecnologia" que se muestra y que se le da al publico, no es lo mas avanzado, hay muchos proyectos y soft y hard que estan a puertas cerradas y que no ven la luz. Y no es conspirativo lo que digo, para nada, pero obviamente, se mantienen secretos, nunca dicen realmente todo lo que tienen.
yo si decía que la fruta daba fuerza, pero no que a la i.a le gustara
Esta vez no puedo decir que buen post.. me gusta estar informado de los progresos en ciencia pero noticias como esta están mas cerca de la ciencia ficcion que de la ciencia, especula sobre aspectos de tecnologias que aun ni se han inventado, seria un buen post dentro de 50 años pero hoy por hoy no me aporta nada
Se que no será el comentario mas popular pero es mi opinion
"La idea, en el fondo, es muy simple: se trata de contener la inteligencia artificial, aislándola antes de que crezca peligrosamente, tome conciencia de si misma y se convierta en una versión real de Skynet."
Esa idea ya la aplicaron a nosotros lo E.T. que nos crearon.... :P
No estoy deacuerdo con muchos de los comentarios anteriores.
Estamos hablando de verdad de ciencia ficción?, me extraña mucho lo que postean algunos, y mas si tenemos en cuenta que esta es una pagina donde se publican artículos sobre los últimos adelantos tecnológicos, sobre avances en la ciencia etc, avances tecnológicos que suceden todas los días y con una velocidad alucinante.
Actualmente cualquiera de los teléfonos inteligente que muchos poseemos y que caben en nuestros bolsillos, son miles de veces mas poderosos que algunos "Super-Ordenadores" de hace 50 años, que ocupaban pisos enteros.
La tecnología avanza rápido, por lo tanto es razonable ir creando poco a poco un sistema de seguridad para la inteligencia artificial, que se va a venir sin lugar a dudas, es como si decidiéramos crear un reactor nuclear y después crearlo y empezar a utilizarlo nos diéramos cuenta que necesitamos algunas medidas de seguridad para los posibles problemas, es lo mismo.
como dice un refran "si lo hacen por algo sera" y no es demas k los propios cientificos esten ya tan preocupados de lo k vengan k ya estan pensando como "frenarlo" o limitarlo lo mas k se pueda...
la idea no es tonta pues muxas pelis aunk cutres dan ciertas razones para k hasta una makina se de cuenta k lo k falla en el undo somos nosotros, el unico ser k es tan tonto k se destruye a si mismo lentamente.
seria interesante ver este trabajo terminado y el avanze teconologico k haya hasta ese entonces k logren crear la "prision virtual"
Segun la descripción de cómo puede tentar o castigar a los humanos, la descripción de la IA se asemeja a la de diós tanto en premios como en castigos.
YO NO SÉ DE QUÉ SE ESCANDALIZAN. SI LAS MÁQUINAS NOS SUSTITUYEN SERÁ MEJOR PARA EL PLANETA (POR EL DAÑO QUE HEMOS CAUSADO A LA TIERRA Y A NUESTROS PROPIOS CONGÉNERES).
QUIZÁS NO ÉRAMOS EL ÚLTIMO PELDAÑO EVOLUTIVO COMO CREÍAMOS,SINO UN SIMPLE PASO PARA LA CREACIÓN DE SERES MÁS PERFECTOS QUE NOSOTROS...QUIZÁS LOS CYBORGS.
Tengo una idea, por que no encerrarla en una especie de cerebro artificial(objeto físico) que la encierre, un símil como el cerebro físico humano. No podemos acceder a nuestra internet(telepatía). Es algo parecido.
A la paranoia le sigue la esquizofrenia.
"mediante la fuerza fruta" jeje
Todo esta nuestra naturaleza humana si la programamos para que dedusca lo que nos pasa y no pasara, es ovio que cualquiera pensaria que nos dirigimos a una destruccion masiva que son mas que se dedican a la guerra, y nos llevan de corbata a la gente pasifista. Por que, por que todos los desarrollos tecnologicos que an salido a la luz como internet, son en mejora de la milicia de tener cada ves la mejor ama de destrucion masiva, de tener la mejor herrramienta de dominar. por eso le tememos de que algun dia descubramos como enseñarle ese odio a la humanidad a la IA,por que ba descubrir quien es el enemigo de su planeta.....
Debes iniciar sesión para publicar un comentario.