Eliezer Yudkowsky
03 OCTUBRE
Eliezer Yudkowsky, experto en Inteligencia Artificial, alertó de los riesgos de la superinteligencia artificial, un nuevo “tipo” de tecnología que podría desarrollar habilidades sobrehumanas.
“Todos moriremos”: qué es la superinteligencia artificial y por qué hay que temerle, según el “profeta de la IA”
20 AGOSTO
El escritor y experto en Inteligencia Artificial advirtió que, de no parar el desarrollo de esta tecnología ahora, toda la humanidad está en riesgo de morir. Este es un extracto de su última carta polémica, publicada en el Time.
La alarmante carta de Eliezer Yudkowsky: “No basta con detener los avances de la IA, hay que pararlo todo”
Lo más leído
3.
4.
⚡¡Últimos días Cyber! Accede al mejor precio de 2025🗳️ 📰
Digital + LT Beneficios$1.200/mes SUSCRÍBETE