Según los expertos, toda inteligencia artificial tiene unos códigos de seguridad, unas barreras. Es lo que hace, por ejemplo, que no tengan intenciones homicidas. Hasta ahí, todo lógico y razonable. Sin embargo, el antiguo CEO de Google Eric Schmidt está preocupado al respecto. En su opinión, esas medidas pueden saltarse, y no es del todo complicado hacerlo.
Dicho de otra forma: el experto en tecnología, que durante años fue el máximo responsable de una de las más grandes compañías del mundo, se ha unido a los que ven la IA con recelo. No descarta en absoluto la aparición de lo que él denomina “modelos de IA homicidas”. Pero ¿qué son exactamente? Y lo que es aún más importante, ¿cómo podrían ser una amenaza para la gente?
De Google a tener miedo de la IA
Algo está sucediendo con la inteligencia artificial. Al principio, nadie daba demasiada importancia a los pocos expertos que hablaban de que la IA podría convertirse en un peligro para la humanidad. Parecían fanáticos que hubiesen visto alguna película de ciencia ficción a lo Matrix o Terminator y se hubiesen venido arriba. Ahora, en cambio, ya no es del todo así.
Más que nada porque no son casos aislados. Cada vez más especialistas dan la voz de alarma, ya sea de una forma o de otra. Algunos hablan de extinción, otros lo hacen de desempleo masivo, pero todo tiene siempre un toque bastante apocalíptico. Ahora, a este grupo hay que sumarle toda una eminencia, Eric Schmidt, quien durante años estuviese al frente de Google, nada menos.
Durante la conferencia tecnológica Sifted Summit en Londres, Schmidt fue preguntado sobre los peligros de la IA. Y él no tuvo reparos en incluso equiparar su amenaza a la de las armas nucleares. En su opinión, existen medidas de seguridad que todas las compañías ponen a sus modelos. El problema radica en que estás no parecen demasiado fiables… al menos a su juicio.
Sus palabras no pueden ser más contundentes: “Hay evidencia de que se pueden tomar modelos, cerrados o abiertos, y hackearlos para eliminar sus barreras de seguridad. Un mal ejemplo sería que aprendieran a matar a alguien”. Mediante un acto malicioso, cualquier hacker podría acceder a las órdenes que la IA tiene bloqueadas. Pero que están ahí, pese a todo. Y eso es un peligro.
El riesgo de una IA sin control
De esta forma. Eric Schmidt se suma a los muchos expertos que exigen que haya algún tipo de regulación para la IA. En estos momentos, no existe ningún régimen internacional que evita que esta tecnología pueda expandirse sin control alguno. Así que no, no hay nada que impida que la inteligencia artificial, antes o después, puede emplearse con lo que llama “fines destructivos”.
Una visión de la IA nada tranquilizadora, que coincide bastante con la de otros especialistas como el premio Nobel Geoffrey Hinton. ¿Es posible que no se trata de paranoias de unos pocos exagerados? De ser así, es muy probable que hubiese que tomar medidas. Pero las compañías como OpenAI o la propia Google parecen más preocupadas por otras cosas.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial

