Los riesgos de la inteligencia artificial

Es uno de los debates más candentes de la actualidad. ¿Cómo lidiar con los riesgos de la inteligencia artificial? La Cumbre Tecnológica de Bloomberg, celebrada en San Francisco (EEUU), subraya esta discusión. Consideran que se debe vigilar de cerca esta tecnología, que avanza a pasos agigantados.

Los riesgos de la inteligencia artificial están claramente definidos
Los riesgos de la inteligencia artificial están claramente definidos

Costo beneficio

Hay áreas en las que la inteligencia artificial (IA) puede ser beneficiosa. Pero muchas otras podrían «salir mal», reconoció Sam Altman. Es director ejecutivo y cofundador de OpenAI Inc.

«Trabajamos con tecnología peligrosa. Podría utilizarse de forma peligrosa con mucha frecuencia», declaró Altman en la reciente cumbre. Su compañía, OpenAI, ha sido valorada en más de 27.000 millones de dólares. Dijo que los «beneficios superan los costes». En ámbitos como la ciencia, la educación y la medicina, hay grandes oportunidades. «Creo que sería bueno acabar con la pobreza, pero tendremos que gestionar el riesgo para conseguirlo».

Sam Altman alabó el enorme éxito de los productos de OpenAI, como el chatbot ChatGPT y el generador de imágenes Dall-E. Dice que su preocupación por la IA «no tiene que ver con el dinero». Dice que la construcción de los llamados «guardarraíles» para el uso de la IA es uno de los pasos «más importantes».

Se pronunció sobre las recientes advertencias del CEO de Tesla, Elon Musk, sobre el potencial dañino de la IA. Musk es cofundador de OpenAI con Altman. «Se preocupa mucho por la seguridad de la IA», subrayó el gurú tecnológico. Cientos de investigadores antes lanzaron una advertencia de que la IA supone una amenaza existencial para la humanidad.

Lo que es cierto es que esta tecnología llegó para quedarse.
Lo que es cierto es que esta tecnología llegó para quedarse.

Alertas

«Mitigar el riesgo de extinción de la humanidad proveniente de la IA debería ser una prioridad mundial”. Es lo que alerta la declaración publicada el 30 de mayo. Otra carta pública emitida en marzo reunió las firmas de más de 1.000 académicos, empresarios y especialistas. Instaban a hacer una pausa en el desarrollo de la IA hasta que pueda regularse y gestionarse de forma responsable. Parece que los riesgos de la inteligencia artificial no terminan de calcularse aún. Pero debemos estar alertas: no queremos que la Skynet de Terminator se haga realidad.

Fuente "LA TECNOLOGÍA NO TIENE ÉTICA, PERO LA HUMANIDAD DEPENDE DE ELLA"_
⭐ Contenido relacionado
💬 Deja un comentario