Expertos tecnológicos adviertes peligros por experimentos de inteligencia artificial

La humanidad está en peligro por los “experimentos de inteligencia artificial” y hay que detenerlos para evitar el riesgo, según más de 1.000 expertos.

Los investigadores deben dejar de trabajar en el desarrollo de nuevos sistemas de IA (inteligencia artificial) durante los próximos seis meses, y si no lo hacen, entonces los gobiernos deben intervenir, advirtieron.

Tal es la grave conclusión de una nueva carta abierta firmada por expertos, incluidos académicos en el campo y líderes tecnológicos, como Elon Musk y el cofundador de Apple, Steve Wozniak.

La carta señala que las posibilidades positivas de la IA son significativas. Afirma que la humanidad “puede gozar de un futuro floreciente” con la tecnología, y que ahora podemos disfrutar de un “verano de IA” en el que nos adaptemos a lo ya creado.

Pero si los científicos siguen entrenando nuevos modelos, entonces el mundo podría enfrentarse a una situación mucho más difícil. “En los últimos meses, los laboratorios de IA han entrado en una competencia descontrolada para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”, escriben los autores de la carta.

El sistema de IA más avanzado disponible al público en este momento es GPT-4, desarrollado por OpenAI, que se lanzó a principios de este mes. La carta pide que los laboratorios de IA detengan el desarrollo de cualquier sistema más potente que ese, al menos durante los próximos seis meses.

“La pausa debe ser pública y verificable, e incluir a todos los responsables clave. Si no se puede promulgar tal pausa rápidamente, los gobiernos deben intervenir e instituir una suspensión”, escriben los autores.

Durante esos seis meses, tanto los laboratorios de IA como los expertos deberían crear nuevos principios para el diseño de sistemas de IA, afirman. Tales principios implicarían que cualquier sistema construido dentro de ellos es “seguro más allá de toda duda razonable”.

No supondría una pausa del trabajo de IA en general, sino la suspensión del desarrollo de nuevos modelos y capacidades. En cambio, la investigación “debería reenfocarse en hacer que los sistemas poderosos y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, sólidos, alineados, confiables y leales”.

La misma pausa también podría dar tiempo a los legisladores para crear nuevos sistemas de gobernanza para analizar la IA. Conllevaría la designación de autoridades que puedan rastrear su desarrollo y asegurarse de que no persigan fines peligrosos.

Más popular