Inteligencia Artificial
Una carta propone cambiar el mundo en 6 meses
Una carta con más de 1000 firmas de personalidades y expertos propone frenar la investigación en inteligencia artificial
¿Se avecina un nuevo invierno de la inteligencia artificial? A finales del siglo pasado, la inteligencia artificial avanzaba de manera irregular. De 1974 a 1980 sufrió un duro golpe que detuvo prácticamente el interés académico en el campo. El motivo era que, durante los años anteriores, algunos proyectos bastante serios se habían fallado en sus intentos de desarrollar procesos como, por ejemplo, la traducción automática. Por suerte, el campo se recuperó, pero en 1987 empezó un segundo invierno de la IA. Otros seis años en los que escaseó la financiación, con todo lo que eso supone para el progreso de la disciplina. Desde luego, no estamos en el mismo escenario que cuando llegaron aquellos inviernos. Las inteligencias artificiales no dejan de superarse y, tanto el sector público como el privado están invirtiendo serias cantidades de dinero. El peligro ahora es muy diferente: puede que la IA muera de éxito.
Siempre ha habido voces críticas con la inteligencia artificial. Algunas exponían críticas bien argumentadas, otras, no se avergonzaban de mostrar que, todo lo que sabían sobre la inteligencia artificial, se fundamentaba en obras de ciencia ficción y alguna que otra pesadilla. En cierto modo, es lógico que las críticas fueran tan dispares, tanto en argumentos como en validez, porque el concepto de “inteligencia artificial” estaba lejos del público. Sin embargo, ahora que se está popularizando la inteligencia artificial y todos podemos “disfrutar” de su increíble poder, nuestra experiencia es más homogénea, los debates están más sintonizados y las voces discordantes tienen más fácil organizarse para exponer los posibles peligros de esta tecnología. De hecho, así lo han hecho y han presentado una carta con más de 1000 firmas solicitando una moratoria de al menos 6 meses en el desarrollo de estas tecnologías.
Medio año para cambiar el mundo
Lo que piden es relativamente sencillo de exponer: al menos medio año durante el que se paralicen los avances en inteligencia artificial para que así podamos centrar nuestros esfuerzos en desarrollar un conjunto de protocolos de seguridad para el desarrollo de IAs. Ahora bien, que la petición sea sencilla no significa que llevarla a la práctica lo sea, más bien todo lo contrario. Uno de los mayores problemas es que nos enfrentamos a un terreno en continuo cambio y que, por si fuera poco, tampoco conocemos demasiado. La misma naturaleza de esta rama de las ciencias de la computación hace que sus logros sean un poco opacos. No siempre sabemos cómo funcionan y, por lo tanto, regularlos será un trabajo complicado en el plano teórico. Es más, a esto debemos sumarle otro grado de complejidad debido a las implicaciones políticas y económicas. Los intereses de grandes empresas afectarán a cualquier intento de crear protocolos de seguridad oficiales.
Dicho de otro modo: seis meses en un plazo de tiempo realmente corto como para que se puedan desarrollar protocolos sólidos y consensuados. Sobre todo, si asumimos que, para que tengan valor, deberán ser impuestos por algún organismo de poder, con toda la lentitud burocrática que eso supone. Por supuesto, los firmantes de la carta son muy conscientes de todo esto y, por eso, sugieren un mínimo de 6 meses, no seis meses exactos. Ahora bien, ¿Por qué decir “al menos seis meses” y no “al menos un año” o dos? Sería más realista, desde luego, pero también dejaría más claro uno de los grandes problemas de esta propuesta: el choque entre el idealismo y un mercado en ebullición donde cada segundo es oro y, si 6 meses ya son un mundo, un año se vuelve completamente inasumible.
El que para pierde
Ahora mismo las empresas de inteligencia artificial están viviendo el sueño. Crecen y prosperan a velocidades de vértigo. Y eso es una apuesta segura para las grandes corporaciones que han decidido invertir (sea del modo que sea) en este sector emergente. Es más, muchas de ellas llevaban años desarrollando inteligencias artificiales y siendo cabeza de sector, como DeepMind o Open AI. ¿Aceptarán estas empresas la moratoria? Habrá que ver bajo qué condiciones, porque ahora mismo una semana en el mundo de la inteligencia artificial es como varios meses en cualquier otra línea de investigación. Podemos asumir que, por muchas empresas que se acojan a la moratoria, incluso si esta se termina imponiendo por ley, habrá otras, tal vez en otros lugares del mundo, que continúen investigando o, incluso peor: que decidan aumentar sus recursos en cuestiones de inteligencia artificial para aprovechar la situación en su beneficio.
Seis meses con las manos cruzadas mientras un puñado de empresas ponen el turbo en sus proyectos puede suponer pérdidas multimillonarias. Por supuesto, la situación no es tan sencilla, porque hay otras formas de rentabilizar inmediatamente lo que ya han ido desarrollando estas empresas, aunque tengan que paralizar la salida de nuevos productos, pero no podemos ignorar que, a medio y largo plazo, volvemos a encontrarnos con un serio problema. Todo esto envuelve a la moratoria de un aura poco creíble. Una buena acción, posiblemente con tanta buena voluntad como pocas posibilidades de que prospere.
¿Y ahora qué hacemos?
No obstante, nada de esto significa que a los ciudadanos no nos convenga una moratoria. La inteligencia artificial es un sector que corre sin frenos, como un caballo desbocado que corre sin tener muy claro hacia dónde. Porque, por supuesto que las empresas conocen sus metas, saben qué mejoras les gustaría implementar e intuyen qué resultados tendrán en el rendimiento de las inteligencias artificiales. La cuestión no es esa, porque cuando hablamos de la dirección que toman nos referimos más bien a una brújula de valores que guíe estos avances. Hemos vivido y sobrevivido a varias revoluciones tecnológicas que prometían dejarnos sin trabajo. Posiblemente este caso sea parecido, pero lo que no podemos ignorar, por ejemplo, es que habrá consecuencias a corto plazo que sí afectarán al mercado laboral y, por lo tanto, al bienestar de muchos individuos.
¿Qué limitaciones debemos aplicar para que este impacto se reduzca? ¿De quién es propiedad la creación de una inteligencia artificial? ¿Cómo hemos de regular la creación de deepfakes? ¿Debemos tipificar nuevos delitos relacionados con el uso de estas inteligencias artificiales? ¿Es ilegal tener imágenes absolutamente realistas de algo que, si no hubiera sido creado por una IA, sería claramente ilegal? Estamos ante preguntas abiertas o, al menos, que la legislación no ha cerrado del todo. ¿Qué pasará si seguimos avanzando tecnológicamente más rápido de lo que la ley puede actuar?
En realidad, muchas de estas dudas son evoluciones extremas de cuestiones que llevan tiempo rondando en nuestra sociedad. Estas preguntas contienen la esencia del progreso tecnológico y tenemos que entenderlas desde esa perspectiva, como lo que son. De hecho, los grandes maestros de la ciencia ficción ya nos pusieron sobre aviso de la mayoría de estos problemas, pero quisimos pensar que hablaban de un tiempo muy futuro cuando, en realidad, siempre han hablado de su propio tiempo, de los temas tecnológicos que más nos inquietan, vivamos en el siglo que vivamos.
QUE NO TE LA CUELEN:
La carta no propone un verdadero plan de acción. Se limita a hacer una serie de afirmaciones bienintencionadas sobre cómo deberían de ser las cosas, pero no ofrece mecanismos para que, efectivamente, funcionen de ese modo. En parte, eso es lo esperable de una carta que pretende reunir firmas de un gran número de personalidades relevantes en este campo: afirmaciones vagas con las que muchos se puedan sentir identificados. Por lo tanto, tenemos que entender esta carta como lo que es: un intento de visibilizar que, personas teóricamente conocedoras del campo, están preocupadas por una serie de problemas que las instituciones no están abordando. Otra cuestión sería si realmente los firmantes son, en todos y cada uno de los casos, personas con el suficiente criterio como para tener en cuenta su opinión-
REFERENCIAS (MLA):
Pause giant AI experiments: An open letter (2023) Future of Life Institute. Available at: https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (Accessed: April 5, 2023). https://futureoflife.org/open-letter/pause-giant-ai-experiments/
✕
Accede a tu cuenta para comentar