top of page
Foto del escritorHuasteca Global News

Ilya Sutskever y su Nueva Startup Safe Superintelligence: Un Nuevo Enfoque en la IA Segura



HUASTECA GLOBAL NEWS- 06 SEPTIEMBRE 2024

Ilya Sutskever, exjefe científico de OpenAI y figura prominente en el desarrollo de la inteligencia artificial (IA), ha lanzado una nueva startup llamada Safe Superintelligence (SSI). Esta empresa busca revolucionar el campo de la IA con un enfoque renovado en la seguridad y la escalabilidad, superando las capacidades humanas actuales.


En una entrevista exclusiva con Reuters, Sutskever y sus cofundadores revelaron sus planes para SSI y cómo pretenden abordar la IA de manera diferente a como lo hicieron en OpenAI. Sutskever, quien ha trabajado junto a Geoffrey Hinton, uno de los pioneros de la IA, es conocido por su defensa de la escalabilidad, la idea de que el rendimiento de la IA mejora con grandes cantidades de potencia computacional. SSI planea tomar un camino distinto en esta área.


¿Qué Busca Lograr SSI?

Sutskever reveló que SSI tiene como objetivo desarrollar "superinteligencia segura". Según él, "hemos identificado una montaña que es un poco diferente de lo que yo estaba trabajando… una vez que llegues a la cima de esta montaña, el paradigma cambiará… Todo lo que sabemos sobre IA cambiará una vez más". Esta declaración sugiere que SSI está buscando un avance significativo en la IA que podría transformar nuestra comprensión y manejo de esta tecnología.


La Seguridad y la Escalabilidad en la IA

Cuando se le preguntó sobre si lanzaría una IA tan inteligente como los humanos antes de alcanzar la superinteligencia, Sutskever enfatizó la importancia de la seguridad. "La pregunta es: ¿Es seguro? ¿Es una fuerza para el bien en el mundo?" dijo. Destacó que una vez alcanzado este punto, la manera en que el mundo percibe la IA cambiará drásticamente y será necesario un enfoque más profundo y riguroso en la seguridad de la IA.


¿Cómo Definirá SSI la IA Segura?

Sutskever admitió que aún no existen respuestas definitivas sobre qué constituye una IA segura. "Una gran parte de la respuesta a su pregunta requerirá que hagamos una investigación importante," explicó. Aunque no todas las preguntas tienen respuestas claras en este momento, SSI se dedicará a explorar y definir qué medidas y pruebas son necesarias para garantizar la seguridad de las IA avanzadas.


Sobre la Hipótesis de Escala y la Seguridad

Sutskever también abordó la hipótesis de escalado, que es una fórmula utilizada para aumentar las capacidades de los sistemas de IA. Señaló que este enfoque cambiará con el tiempo, y que la cuestión de la seguridad será crucial a medida que las capacidades del sistema aumenten.


Transparencia y Colaboración

En cuanto a la publicación de códigos y trabajos investigativos, Sutskever indicó que SSI no publicará todo su trabajo en código abierto de inmediato, pero espera que haya oportunidades para compartir información relevante sobre la seguridad de la superinteligencia en el futuro.


Perspectiva sobre la Investigación en Seguridad de IA

Sutskever expresó una alta opinión sobre los esfuerzos de investigación en seguridad realizados por otras empresas de IA, señalando que, aunque SSI busca hacer una contribución significativa, no cree que sean los únicos capaces de abordar estos desafíos. La colaboración y el avance continuo en el campo son esenciales para enfrentar los retos que se presentan.


Conclusión

Safe Superintelligence se posiciona como una nueva fuerza en el desarrollo de IA, con un enfoque firme en la seguridad y la escalabilidad. A medida que esta startup avanza, el mundo de la inteligencia artificial podría experimentar un cambio paradigmático en cómo entendemos y gestionamos estas tecnologías emergentes.

Comments


bottom of page