Inteligencia Artificial
Steve Wozniak: "Si hablamos de una IA matando personas, compra un Tesla"
El cofundador de Apple ha hecho declaraciones muy explícitas respecto a los peligros de la inteligencia artificial
Es evidente que hay una necesidad de legislar claramente el uso de las inteligencias artificiales. El escenario de una IA que se rebela contra los humanos ya ha sido planteado y está en boca de muchos. Y uno de ellos es el cofundador de Apple, Steve Wozniak. En una reciente entrevista, Wozniak argumentó que los esfuerzos de conducción autónoma de la compañía dirigida por Elon Musk dejan mucho que desear y están haciendo que los Tesla sean increíblemente inseguros para conducir.
“De hecho, creó en ellos y ni siquiera estamos cerca de la realidad. Y si quieres que una IA salga mal y tome muchas afirmaciones y trate de matarte cada vez que pueda, consigue un Tesla”, afirmaba Wozniak. Si bien comparar los modos más extremos de ChatGPT o las posibilidades futuras de esta tecnología con la probabilidad de que un vehículo sin conductor guiado por una IA atropelle a alguien parece extremo, el cofundador de Apple podría tener algo de razón: los riesgos al subirse a un Tesla y permitir que su IA tome el mando, son reales. De un Tesla y de cualquier otro vehículo autónomo.
La realidad es que no es la primera vez que Wozniak alerta de este tipo de problemas vinculados al sistema Autopilot de Tesla, señalando que la realidad está muy por debajo de las expectativas y afirmaciones de Tesla. El año pasado, en una entrevista con Stephen Glover, Wozniak recordó los problemas de "freno fantasma" que tenía mientras conducía su propio Tesla (un Modelo S), lo que provocó que redujera la velocidad significativamente mientras conducía por una autovía: “¡Esto es muy peligroso! Y nos ha pasado cien veces, al menos, porque lo usamos mucho”.
Según los informes, Musk convenció a Wozniak para que comprara un Model S en 2013. En ese momento, Musk, relata Wozniak, le dijo que el automóvil “sería capaz de autoconducirse solo por todo el país a fines de 2016”. Pero antes que se hiciera realidad esto, numerosos Tesla han estado vinculado con accidentes, algunos de ellos fatales. La Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. (NHTSA) anunció en 2021 que estaba investigando al fabricante de vehículos eléctricos por una serie de accidentes en los que sus vehículos se estrellaron contra vehículos de emergencia detenidos.
El año pasado, surgieron noticias de que el Departamento de Justicia también está investigando más de una docena de accidentes que involucran al Autopilot de Tesla y la compañía de Musk lo confirmó. ¿Qué significa esto? Que se necesitan leyes vinculadas al uso de inteligencia artificial mucho más rápido de lo que pensamos.
A pesar del controvertido marketing de Tesla y las repetidas promesas de Musk, sus vehículos no podrán conducirse completamente solos en 2023 y requerirán que el conductor vigile la carretera y tome el control en cualquier momento y, como Wozniak descubrió de primera mano, hay una muy buena razón para ello.
✕
Accede a tu cuenta para comentar