Regstrate gratis Bienvenido a LaPollaDesertora❤! Regístrate ahora y accede a todos los contenidos sin restricciones. Seguro te divertirás y conocerás gente nueva!.

¿Cómo sabemos lo que hará la I.A. Superinteligente?



Disfruta de una navegación privada, segura y rápida con Brave.
Si los sistemas superinteligentes existieran, la lógica demuestra que serían impredecibles



Con el aumento de las capacidades de la inteligencia artificial durante la última década, un número significativo de investigadores se ha dado cuenta de la importancia de crear sistemas inteligentes que sean a la vez capaces y también seguros y protegidos.



Desafortunadamente, el campo de la seguridad en la IA es muy joven y los investigadores todavía están trabajando para identificar sus principales retos y limitaciones. Los resultados de la imposibilidad son bien conocidos en muchos campos de investigación y algunos han sido identificados ahora en Seguridad en la IA.

En este post, quiero concentrarme en un concepto poco comprendido de la imprevisibilidad en los sistemas inteligentes que limita nuestra capacidad de entender el impacto de los sistemas inteligentes que estamos desarrollando. Es un reto para la verificación de software y el control de sistemas inteligentes, así como para la seguridad en la IA en general.




Te puede interesar el Post:
Para poder ver los links necesitas estar Registrado . O.. ya tienes cuenta? Logueate!



En la informática teórica y en el desarrollo de software en general, muchos resultados de imposibilidad bien conocidos están bien establecidos. Algunos de ellos están fuertemente relacionados con el tema de este trabajo; por ejemplo, el Teorema de Rice establece que ningún método computacionalmente efectivo puede decidir si un programa exhibirá un comportamiento particular no trivial, como producir una salida específica.


De manera similar, la Irreductibilidad Computacional de Wolfram establece que los comportamientos complejos de los programas no pueden ser predichos sin ejecutar realmente esos programas. Cualquier sistema físico que pueda ser mapeado en una máquina de Turing Machine exhibirá de manera similar la Impredecibilidad.



La impredecibilidad de la IA es uno de los muchos resultados de imposibilidad en la Seguridad de la IA, también conocida como Inconocibilidad o Incontenibilidad Cognitiva. Se define como nuestra incapacidad de predecir de forma precisa y consistente qué acciones específicas tomará un sistema inteligente para alcanzar sus objetivos, incluso si conocemos las metas terminales del sistema.

Está relacionado con la inexplicabilidad e incomprensibilidad de la IA pero no es exactamente lo mismo. La impredecibilidad no implica que sea imposible un análisis estadístico mejor que el aleatorio; simplemente señala una limitación general sobre lo bien que pueden funcionar tales esfuerzos. Es particularmente pronunciada con sistemas avanzados generalmente inteligentes (superinteligencia) en dominios novedosos. De hecho, podemos presentar una prueba de imprevisibilidad para tales sistemas superinteligentes.



Prueba: Esta es una prueba por contradicción:


Supongamos que las cosas fueran de otra manera. Supongamos que la imprevisibilidad es errónea y que es posible que una persona pueda predecir con exactitud las decisiones de la superinteligencia. Eso significa que puede tomar las mismas decisiones que la superinteligencia, lo que la hace tan inteligente como la superinteligencia.
Pero eso es una contradicción porque la superinteligencia se define como un sistema más inteligente que cualquier persona. Eso, a su vez, significa que nuestra suposición inicial era falsa y que la imprevisibilidad no está equivocada. 


La cantidad de imprevisibilidad puede ser medida formalmente a través de la teoría de la sorpresa bayesiana, que mide la diferencia entre las creencias posteriores y previas del agente de predicción. "La imprevisibilidad de la inteligencia es un tipo de sorpresa muy especial e inusual, que no es en absoluto como el ruido o la aleatoriedad.




Existe un extraño equilibrio entre la imprevisibilidad de las acciones y la previsibilidad de los resultados". Una heurística simple es estimar la cantidad de sorpresa en proporción a la diferencia de inteligencia entre el predictor y el agente predicho. Véase
Yudkowsky Yudkowsky, E., Belief in Intelligence, in Less Wrong. October 25, 2008: Available at: https://www.lesswrong.com/posts/HktFCy6dgsqJ9WPpX/belief-in-intelligence
para una discusión fácil de seguir sobre este tema.

La impredecibilidad es prácticamente observable en los actuales sistemas de dominio estrecho con rendimiento sobrehumano. Los desarrolladores de famosos sistemas inteligentes como Deep Blue (Ajedrez), IBM Watson (Jeopardy), y AlphaZero (Go) no sabían qué decisiones específicas iba a tomar su IA en cada turno. Todo lo que podían predecir era que intentaría ganar usando cualquier acción disponible, y ganó.




Los desarrolladores de AGI están en exactamente la misma situación; pueden saber las metas finales de su sistema pero no saben el plan paso a paso real que ejecutará, que por supuesto tiene consecuencias serias para la Seguridad de la IA. Un lector interesado en ejemplos concretos de acciones no anticipadas de agentes inteligentes se le aconseja leer dos encuestas sobre el tema, una en el dominio de los
algoritmos evolutivosLehman, J., J. Clune, and D. Misevic. The surprising creativity of digital evolution. in Artificial Life Conference Proceedings. 2018. MIT Press.
y otra sobre agentes de
IA estrechosYampolskiy, R.V., Predicting future AI failures from historic examples. foresight, 2019. 21(1): p. 138-152.
.


Hay infinitos caminos para cada estado deseable del mundo. La gran mayoría de ellos son completamente indeseables e inseguros, y la mayoría tienen efectos secundarios negativos. En los casos más difíciles, es decir, la mayoría de los casos del mundo real, incluso el objetivo general del sistema puede no conocerse con precisión o puede conocerse sólo en términos abstractos, también conocido como "hacer el mundo mejor".



Mientras que en algunos casos el objetivo(s) terminal(es) podría ser aprendido, incluso si se puede aprender a predecir un resultado general con cierta certeza estadística, no se puede aprender a predecir todos los pasos hacia el objetivo que un sistema de inteligencia superior tomaría. Una inteligencia inferior no puede predecir con precisión todas las decisiones de una inteligencia superior, un concepto conocido como el Principio de Vinge.

Cita:

"El Principio de Vinge implica que cuando un agente está diseñando otro agente (o modificando su propio código), necesita aprobar el diseño del otro agente sin conocer las acciones futuras exactas del otro agente".





La imprevisibilidad es un concepto intuitivamente familiar. Normalmente podemos predecir el resultado de procesos físicos comunes sin conocer el comportamiento específico de átomos particulares, de la misma manera que podemos predecir típicamente el comportamiento general del sistema inteligente sin conocer los pasos intermedios específicos.

Rahwan y Cebrian observan que "... los agentes complejos de la IA a menudo exhiben una imprevisibilidad inherente: demuestran comportamientos emergentes que son imposibles de predecir con precisión, incluso por sus propios programadores. Estos comportamientos se manifiestan sólo a través de la interacción con el mundo y con otros agentes del entorno...



De hecho, Alan Turing y Alonzo Church mostraron la imposibilidad fundamental de asegurar que un algoritmo cumpla con ciertas propiedades sin ejecutar dicho algoritmo. Hay límites teóricos fundamentales en nuestra capacidad de verificar que una pieza de código en particular siempre satisfará las propiedades deseadas a menos que ejecutemos el código y observemos su comportamiento". (Ver Rahwan et al. para una discusión adicional sobre la imprevisibilidad y temas relacionados con el comportamiento de la máquina ).



Otros han llegado a conclusiones similares.

Cita:

"Dada la inherente imprevisibilidad de la IA, puede que no siempre sea factible implementar controles específicos para cada actividad en la que se involucre un bot".
"A medida que los programas informáticos se vuelven más inteligentes y menos transparentes, no sólo los efectos nocivos son menos predecibles, sino que su proceso de toma de decisiones también puede ser impredecible".
"La IA puede llegar a ser tan compleja que resulte en errores e impredecibles, ya que la IA no será capaz de predecir su propio comportamiento".

"... el comportamiento de [los intelectos artificiales] será tan complejo que será impredecible y, por lo tanto, potencialmente amenazador para los seres humanos".





Podemos concluir que la imprevisibilidad de la IA hará que la IA 100% segura sea siempre una imposibilidad. Pero todavía podemos luchar por una IA más segura porque somos capaces de hacer algunas predicciones sobre las IA que diseñamos.


Disfruta de una navegación privada, segura y rápida con Brave.

Firma

\

Ciencia y Educacion Alan Turing y su manuscrito secreto - Código Enigma
Juegos Alan Wake Collectors Edition [2013] [Esp] [8.7 GB]
Textos y libros Edgard Alan Poe
Mega Crap Ahora Sabemos porque ya no hay fotos de la polla

15 Comentarios

Cargando comentarios espera un momento...
Para poder comentar necesitas estar Registrado. O.. ya tienes usuario? Logueate!