Inteligencia Artificial
En una carta abierta, expertos en tecnología solicitaron pausar el desarrollo de la IA para dar tiempo a la instauración de protocolos de seguridad. Y es que temen de esta tecnología que puede traer “riesgos profundos para la sociedad y la humanidad”.
“Mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”. Así es la percepción de más de mil líderes e investigadores tecnológicos, incluidos Elon Musk, sobre el futuro de la Inteligencia Artificial (IA), que escribieron en conjunto una carta abierta donde piden ir más lento con su desarrollo.
Y es que los especialistas ven en ella no solo la parte “buena” que provee herramientas para todas y todos, que simplifican y mejoran la vida cotidiana, sino que están preocupados por el otro lado, más oscuro y desconocido, de sistemas más complejos que podrían traer “riesgos profundos para la sociedad y la humanidad”.
Sin duda, los líderes tecnológicos están instaurando un escenario complejo, pero acertado para ellos, pues la proyección que tienen sobre la IA parece la trama de Frankestein: el doctor se da cuenta de que su creación, por más maravillosa que parezca, tiene una incontrolable oscuridad que puede arruinar no solo su vida, sino la de todos quienes lo rodean.
En el escrito, publicado por el grupo Future of Life Institute, los especialistas establecen que los desarrolladores están “atrapados en una carrera fuera de control”.
Y es que todos quieren tener el mejor sistema de IA: Google, Microsoft y OpenAI están compitiendo por el mejor chatbot que, curiosamente, mientras más “humano” sea, más conocimiento tenga y más fácil de ocupar sea, mejor.
Y estas actualizaciones están saliendo cada vez más rápido, como ChatGPT, que está disponible hace cuatro meses y sus nuevas versiones, como GPT-4, son cada vez más controversiales, complejas y “humanas”. Esto que estaría preocupado a los líderes, quienes consideran que estos deberían avanzar “solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables”.
Por ello, una pausa daría el tiempo suficiente para implementar “protocolos de seguridad compartidos” para sistemas de IA, una medida que los expertos consideran necesaria y que si no se acoge por las buenas, “los gobiernos deberían intervenir e instituir una moratoria”.