Un grupo de prestigiosos expertos de todo el mundo crea una “ley de la robótica”

Comparte esta historia:

¿Estamos preparados para SkyNet?

La inteligencia artificial (IA) se encuentra actualmente a la vanguardia de la ciencia y la tecnología más puntera. Los avances en IA, incluyendo las tecnologías agregadas como el aprendizaje profundo y las redes neuronales artificiales, están detrás de un porcentaje altísimo de desarrollos modernos. Sin embargo, aunque hay un gran potencial positivo para la IA, muchos tienen miedo de lo que podría llegar a hacer, y con razón. Todavía existe el temor de una singularidad tecnológica, circunstancia en la que las máquinas de IA superarían la inteligencia de los seres humanos y se apoderarían el mundo.

La organización de beneficencia y de divulgación el Instituto del Futuro de la Vida (FLI, por sus siglas en inglés) organizó recientemente su segunda Conferencia sobre los Beneficios de la IA (BAI 2017). A lo largo de la semana de conferencia, los expertos de IA desarrollaron lo que llaman los Principios de Asilomar de la IA, para asegurar que la IA siga siendo beneficiosa y no perjudicial para el futuro de la humanidad.

El FLI, fundado por expertos del MIT y DeepMind, trabaja con un Consejo Asesor Científico que incluye al genio y el físico teórico Stephen Hawking, el premio Nobel y matemático Frank Wilczek (el hombre que está detrás de los cristales de tiempo), el Director Ejecutivo de Tesla y SpaceX, Elon Musk, Nick Boström, e incluso Morgan Freeman. En la actualidad, aparte de su trabajo para mantener la IA beneficiosa y ética, el FLI también está explorando formas de reducir los riesgos de las armas nucleares y la biotecnología.

Conferenciantes del FLI. Imagen: FLI

El FLI no es el único grupo que ha estado trabajando en directrices éticas para la IA. También existe la Asociación sobre la IA para el Beneficio de la Gente y la Sociedad, a la que Apple se unió recientemente. Otro es el Fondo de Inteligencia Artificial, una asociación que mira a la IA desde un enfoque interdisciplinario.

IA para el bien común

Los Principios de Asilomar de la IA son similares a los del marco de directrices del IEEE para la IA llamado Ethically Aligned Design. Ambos proporcionan parámetros que apoyan la continuación del desarrollo de la AI con consciencia. ¿Así pues, cómo sugieren mantener a raya los principios de Asilomar a una pesadilla como las de la ciencia ficción al estilo SkyNet? Pues bien, ofrece 23 principios agrupados en tres categorías que abarcan la investigación, la ética y los valores, y las cuestiones a largo plazo.

Los principios no diluyen las realidades concretas de la investigación de la IA. Por el contrario, pretenden mantenerla rigurosa y bien financiada. Sugiere estos puntos clave (puedes verlos todos aquí):

  • ¿Cómo podemos hacer que los futuros sistemas de AI sean muy robustos, de modo que hagan lo que queramos sin fallar o ser hackeados?
  • ¿Cómo podemos aumentar nuestra prosperidad a través de la automatización mientras mantenemos los recursos y el propósito de las personas?
  • ¿Cómo podemos actualizar nuestros sistemas legales para que sean más justos y eficientes, para mantener el ritmo de la IA y para gestionar los riesgos asociados con la IA?
  • ¿Con qué conjunto de valores debe alinearse la IA y cuál debe ser su estatus legal y ético?

Desde el punto de vista ético, estos principios destacan el respeto a los valores humanos. “Los sistemas de inteligencia artificial deben ser diseñados y operados de manera que sean compatibles con los ideales de la dignidad humana, los derechos, las libertades y la diversidad cultural”, según manifiesta el principio no. 11. Sin embargo, los principios aclaran que los seres humanos también deben monitorear seriamente la IA: “Los seres humanos deben elegir cómo y si delegar decisiones a los sistemas de IA, para lograr los objetivos humanos” (principio no 16). Además, se observa que la IA nunca debe utilizarse para subvertir los cimientos de la sociedad (principio nº 17).

Como principio general y a largo plazo, el grupo destaca que la IA debe trabajar siempre para el bien común. Su último punto lo expone de forma clara: “La superinteligencia sólo debe desarrollarse al servicio de ideales éticos ampliamente compartidos, y para el beneficio de toda la humanidad más que de un estado u organización” (nº 23).

Artículo original publicado por Futurism. Revisado y traducido por ¡QFC!

Deja tu comentario

Comparte esta historia:
2017-02-03T16:22:08+00:00