
Inteligencia Artificial
Sam Altman, creador de ChatGPT, hace saltar todas las alarmas: "Creo que algo malo va a pasar con la IA"
En una reciente entrevista, el CEO de OpenAI advirtió que la IA puede traer cosas malas en un futuro cercano en clara referencia a Sora, su herramienta de generación de vídeos

Las últimas declaraciones de Sam Altman, el director ejecutivo de OpenAI, respecto al avance de la Inteligencia Artificial (IA) no son demasiado halagüeñas, ya que recientemente ha asegurado que le preocupa _"el impacto de la IA en los empleos"_ y también ha dejado claro que no estaremos a salvo ni en un bunker _"si la IA se sale de control"_.
Pero eso no es todo, ya que, en una entrevista reciente, el padre de ChatGTP ha afirmado sin tapujos que deberíamos estar preocupados por el futuro que nos traerá la IA: "creo que algo malo va a pasar con la IA".
Altman avisa de las consecuencias negativas de los nuevos modelos de vídeo como Sora
Como refleja un informe del medio Investopedia, hace un mes Sam Altman participó en una entrevista para el videopodcast a16z de la firma de capital de riesgo Andreessen Horowitz y aprovechó la ocasión para asegurar que espera que pasen cosas malas por culpa de la IA:
Espero que sucedan cosas realmente malas debido a la tecnología.
Tal como puedes apreciar en dicha entrevista, la cual te dejamos bajo estas líneas, Altman se refería a Sora, una herramienta de generación de vídeos lanzada a finales de septiembre por OpenAI que rápidamente se situó como la aplicación más descargada de la App Store en los Estados Unidos, algo que provocó que una avalancha de deepfakes creados por dicho modelo inundaran las redes sociales con vídeos en los que aparecían figuras como Martin Luther King Jr. y otros personajes públicos como el propio San Altman.
De hecho, Altman aparecía en dichos vídeos realizando diferentes actividades criminales, tal como puedes ver en esta Storie de Instagram.
Pero eso no es todo, ya que Altman también afirmó que herramientas como Sora precisan de un control que evite que esta tecnología se use con fines maliciosos:
Muy pronto el mundo tendrá que lidiar con modelos de video increíbles que pueden falsificar a cualquiera o mostrar lo que quieras.
Asimismo, el creador de ChatGPT aseguró que, en lugar de perfeccionar este tipo de tecnología a puerta cerrada, la sociedad y la IA deberían trabajar juntas para "coevolucionar" y "no se puede simplemente dejarlo todo al final".
Según Altman, lo que deberíamos hacer es proporcionar a las personas una exposición temprana a este tipo de tecnología para que las comunidades puedan construir normas y barreras antes de que estas herramientas se vuelvan aún más poderosas y afirma que si hacemos esto, estaremos mejor preparados cuando lleguen modelos de IA de generación de vídeos todavía más avanzados que los actuales.
La advertencia de Sam Altman no solo se refería a los vídeos falsos, sino también al hecho de que muchos de nosotros tendemos a "subcontratar" nuestras decisiones a algoritmos que pocas personas entienden:
Sigo pensando que habrá algunos momentos realmente extraños o aterradores.
Además, Altman también explicó que el hecho de que la IA todavía no haya causado un evento catastrófico, "no significa que nunca lo hará" y que "miles de millones de personas hablando con el mismo cerebro" podrían llegar a crear "cosas extrañas a escala social".
Creo que como sociedad desarrollaremos algunas barreras a su alrededor.
Finalmente, aunque esto es algo que nos afecta a todos, Altman se opone a una regulación estricta para esta tecnología porque afirma que "la mayor parte de la regulación probablemente tenga muchas desventajas" y que lo ideal sería realizar "pruebas de seguridad muy cuidadosas" con estos nuevos modelos que él definió como "extremadamente sobrehumanos".
✕
Accede a tu cuenta para comentar

El colapso de la legislatura
La «no» moción del PP: una mayoría alternativa con Junts

Comunidad Valenciana
