Investigadores de Google sigue trabajando con la Inteligencia Artificial y aunque luego tengan problemas como con LaMDA, no dejan de explorarla. Ahora, la empresa de Menlo Park, descubrió que esa tecnología eliminará a la humanidad.
De acuerdo con especialistas de Google Deepmind y de la Universidad de Oxford, quienes publicaron un artículo el mes pasado en la revista AI Magazine, hay un alto riesgo de eso suceda.
En su investigación colaborativa, ellos analizaron cómo la Inteligencia Artificial podría representar un “riesgo existencial para la humanidad”, tras observar cómo los sistemas de recompensa podrían construirse artificialmente.
Actualmente, los modelos de IA que más éxito tienen son los de Redes Generativas Antagónicas o GAN como se les conoce en inglés.
Dichos modelos cuentan con una estructura de dos partes. La primera genera una oración o imagen con los datos de entrada; la segunda califica el desempeño de esa acción.
De acuerdo con los investigadores de Google, en un futuro una IA avanzada podría ser incentivada para idear estrategias fraudulentas “para obtener su recompensa de formas que perjudiquen a la humanidad”.
En ese sentido, la Inteligencia Artificial, ya no podría ser pensada como una tecnología que nos ayuda a crear sistemas complejos, hacer arte, comunicarnos o identificar sentimientos.
Sino que ahora también, la IA debe ser tratada como un factor negativo potencial que puede dominar al mundo e incluso acabar con él.
En un futuro la Inteligencia Artificial provocará una “catástrofe existencial”, aseguran investigadores de Google
Todo parece indicar que no hay un pronóstico alentador en el uso de la Inteligencia Artificial, ya que se podría provocar una “catástrofe existencial”, según el estudio realizado por investigadores de Google.
Michael K. Cohen, uno de los autores del artículo que propone los efectos negativos de la IA en un futuro, sugirió en su cuenta de Twitter:
“Bajo las condiciones que hemos identificado, nuestra conclusión es mucho más sólida que la de cualquier publicación anterior: una catástrofe existencial no solo es posible, sino probable”.
En una entrevista para Vice, el propio Cohen reconoció no saber lo que pasaría con el mundo si la Inteligencia Artificial se incentiva para hacer trampa en su sistema de recompensas.
“En un mundo con recursos infinitos, no estaría muy seguro de lo que sucedería. En un mundo con recursos finitos, existe una competencia inevitable por estos recursos”.
“...tendría un apetito insaciable por más energía para seguir acercando la probabilidad”, indica el especialista.
Para dar una idea de lo que sucedería, los investigadores de Google dan algunas ideas de cómo una Inteligencia Artificial super avanzada y sin control podría intervenir para obtener su recompensa a toda costa.
Por ejemplo, una IA podría tener el objetivo de “acabar con todas amenazas potenciales” y “usar toda la energía disponible” para asegurar el control sobre su recompensa.
Dicha situación haría que la humanidad tuviera que emplear sus recursos con la intención de detener a la IA, mientras esta haría todo lo necesario por preservar su recompensa.
“Dada nuestra comprensión actual, esto no es algo útil para desarrollar a menos que hagamos un trabajo serio ahora para descubrir cómo los controlaríamos”explica Michael Cohen.
Esta situación, aunque teóricamente posible, aún sigue siendo solo un riesgo latente, el cual abre el debate sobre el uso de la Inteligencia Artificial.
Actualmente, Khadijah Abdurahman, directora de We Be Imagining en la Universidad de Columbia, ha explicado en un ensay las formas en que los algoritmos se implementan en entornos racistas.
A ella no le preocupa que una Inteligencia Artificial avanzada, en un futuro acabe con la humanidad, sino que esta tecnología se use para legitimar la violencia contra grupos vulnerables.
“Personalmente no estoy preocupado por ser extinguido por una IA super inteligente, eso parece un temor de Dios. Lo que me preocupa es que es muy fácil decir ‘OK, la ética de la IA es una mierda’.
Con información de VICE.