La Inteligencia Artificial y sus peligros
Héctor Mendoza

La pluma ecléctica

94 opiniones • veces leído

Si bien la Inteligencia Artificial está en un incipiente desarrollo, es muy probable que avance a pasos agigantados en las próximas décadas. En ese contexto…

Imagen: Futuro Eléctrico.
Imagen: Futuro Eléctrico.

Lectura: ( Palabras)

De frente al avance de la Inteligencia Artificial (IA), es necesario hacer una pausa en el camino y analizar qué es lo que estamos haciendo, hacia dónde queremos ir y lo más importante, por qué habríamos de enfilarnos hacia “X” o “Y” dirección.

Si bien la Inteligencia Artificial está en un incipiente desarrollo, es muy probable que avance a pasos agigantados en las próximas décadas. En ese contexto resulta imperioso plantear cuestiones éticas, particularmente sobre cómo nos afectaría una superinteligencia artificial, una que parece que vamos hacia allá terminaría siendo una inteligencia suprahumana.

De no cuestionarnos desde la ética, fácilmente podríamos llegar a estados totalitarios, con un control absoluto sobre sus ciudadanos. De hecho, Orwell se quedaría corto y pasmado con lo que en la actualidad se está haciendo en la China continental.

Efectivamente, en China incluso mucho antes de la pandemia, se empezaron a implementar sistemas de IA que terminan controlándolo todo, pero controlándolo desde una visión autoritaria y de Estado. Es así que la pandemia del COVID-19 resultó la excusa perfecta para que el gobierno chino profundizara estos controles.

IA control en China
Imagen: Confirmado.net.

El gran peligro de todo esto es que, si no se marcan pautas éticas en el desarrollo de la IA, quizá siendo muy pesimistas, podríamos llegar a una dictadura global; una que, de lograrse, se mantuviera estable y para siempre.

Pensemos, por ejemplo, en las alternativas que nos ofrece la IA en términos de armamento. Desde robots para combatir en una guerra cuerpo a cuerpo, drones para atacar furtivamente, ya sea a civiles o a blancos específicos. Lo anterior no es descabellado, fácilmente se podrían utilizar drones con reconocimiento facial y equipados con un arma de fuego.

Estos drones de bajo costo serían ideales para eliminar discrecionalmente a personas, ya sea al político enemigo o hasta una población en su conjunto.

Entonces, es necesaria la reflexión ética, la discusión de hacia dónde debe ir la IA, la necesidad de verificar que los algoritmos no incluyan sesgos discriminatorios. La historia nos da ejemplos contrastantes, los biólogos lucharon para lograr una prohibición, más o menos global en cuanto a las armas biológicas se refiere, pero los físicos fracasaron rotundamente al permitir la creación de las armas nucleares.

Qué queremos, parece evidente cuál de los dos caminos es el que debemos seguir de frente a la IA. 

Más columnas del autor:
Todas las columnas Columnas de

Deja un comentario

Lo que opinan nuestros lectores a la fecha