Biden dice tecnológicas deben garantizar que la inteligencia artificial es segura
El presidente estadounidense Joe Biden dijo el martes que aún está por verse si la inteligencia artificial es peligrosa, pero que cree que las empresas tecnológicas deben garantizar que sus productos sean seguros antes de lanzarlos al mercado.
Biden se reunió con su consejo de asesores sobre ciencia y tecnología para hablar de los riesgos y oportunidades que los rápidos avances en inteligencia artificial plantean para los usuarios y la seguridad nacional.
“La IA puede ayudar a afrontar algunos retos muy difíciles, como las enfermedades y el cambio climático, pero también tiene que abordar los riesgos potenciales para nuestra sociedad, nuestra economía y nuestra seguridad nacional”, comentó Biden al grupo, que incluye académicos así como ejecutivos de Microsoft y Google.
En los últimos meses, la inteligencia artificial ha saltado al primer plano de la conversación nacional y mundial tras el lanzamiento del popular chatbot ChatGPT, que ha contribuido a desencadenar una carrera entre los gigantes tecnológicos para desarrollar herramientas similares, al tiempo que ha suscitado preocupaciones éticas y sociales sobre la tecnología capaz de generar una prosa convincente o imágenes que parezcan obra de seres humanos.
Aunque las empresas tecnológicas siempre deben ser responsables de la seguridad de sus productos, el recordatorio de Biden refleja algo nuevo: la aparición de herramientas de IA fáciles de usar que pueden generar contenidos manipulables y medios sintéticos de aspecto realista conocidos como “deepfakes”, dijo Rebecca Finley, directora ejecutiva de Partnership on AI, respaldada por la industria.
La Casa Blanca señaló que el presidente aprovechó la reunión sobre IA para “discutir la importancia de proteger los derechos y la seguridad para garantizar una innovación responsable y salvaguardias adecuadas”, y para reiterar su llamamiento al Congreso para que apruebe leyes que protejan a los niños y limiten la recopilación de datos por parte de las empresas tecnológicas.
La semana pasada, Italia bloqueó temporalmente ChatGPT por motivos de privacidad de los datos, y los legisladores de la Unión Europea han estado negociando la aprobación de nuevas normas para limitar los productos de IA de alto riesgo en los 27 países del bloque.
En cambio, “Estados Unidos ha adoptado un enfoque de no intervención respecto al desarrollo comercial de la IA”, comentó Russell Wald, director ejecutivo de política y sociedad del Stanford Institute for Human-Centered Artificial Intelligence.
No es probable que las declaraciones de Biden del martes cambien esta situación, pero “está sentando las bases para un diálogo nacional sobre el tema al llamar la atención sobre la IA, algo que se necesita desesperadamente”, afirmó Wald.