Revisando los límites éticos de la inteligencia artificial

Una computadora puede ser llamada “inteligente” si logra engañar a una persona haciéndole creer que es un humano” – Alan Turing

GoogleCar-selfdriving

Este verano, como todos, he aprovechado para leer mucho. Uno de los libros que más me ha impactado ha sido  [amazon text=Bold, de Peter Diamantidis&asin=1476709564]. Para quien no lo conozcáis, Peter es un empresario americano de origen Griego que, entre otras cosas, ha fundado una compañía de vuelos suborbitales para poder experimentar la ausencia de gravedad (el propio Stephen Hawkins lo ha probado), ha co-fundado la Singularity University, y es el impulsor del concurso XPrice, que está dotado con una exorbitada cantidad de dinero para resolver retos increíbles. En Bold, Peter toca muchos temas y uno de ellos es la Inteligencia Artificial, IA. Pues bien, serendipias de la vida, a la vez que me leía Bold, estaba escuchando la autobiografía de Elon Musk en formato audiolibro. Ambos autores tocaban directamente el tema de la IA.

IA aplicada a la conducción

La última actualización del Model S de Tesla (yo quiero uno), incluye una opción que hace que el coche vaya automáticamente del garage a la puerta de tu casa. Obviamente, has de tener una finca cerrada, y claro el Model S no es para todos los bolsillos. Es decir, el coche, como los de Google, sabe conducir solo. Esto se lo conté a un amigo que trabaja como vendedor de coches, y además de no gustarle mucho lo de los coches eléctricos (de momento), me dijo que el último modelo de Hyundai, es capaz de leer las líneas de la carretera, y que si te duermes al volante y ve que vas a salir del carril, automáticamente corrige la posición. Calculo que si este mecanismo lo tuvieran ya toodos los coches, el número de accidentes en carretera disminuiría dramáticamente, ya que el sueño es una de las causas de gran parte de accidentes.

Hace unos días actualicé a Windows 10 (de momento bien, gracias, no como a otros) y una de las principales novedades es Cortana, a la que acabo de preguntar, hablando, si me podía buscar las causas de accidentes por carretera. Me ha devuelto esto. Obviamente, yo hubiera esperado que me buscara “causas de accidentes en carretera”. Pero bueno, el caso es que poco a poco la IA se va metiendo en nuestras vidas y está presente en muchos pequeños detalles de los que casi no tenemos constancia.

Aun así, todavía parece muy lejano el día en que haya autómatas humanoides que trabajen para nosotros como en Yo, Robot, pero llegaremos. Ahora mismo no me cabe duda. La cuestión es ¿qué límites o peligros implica el desarollo de la IA? ¿Skynet sería viable?

¿Qué limites en la toma de decisiones pondremos a la IA?

Justo hace unas semanas, un grupo de científicos, ingenierios y empresarios (entre ellos el propio Musk, Stephen Hawinkins o Steve Wozniak) han firmado un manifiesto alertando de los peligros de la IA, en el diferentes ámbitos. Por ejemplo, el que un dron, tome decisiones militares de vida o muerte sin intervención humana. Las cuestiones éticas no son menores. Pero no nos vayamos al ámbito militar. Imaginemos un ejemplo en el ámbito civil, en un futuro no tan lejano creo yo, en el que la IA tenga que tomar ciertas decisiones.

Supongamos que Google, Tesla u otra compañía, popularizan los coches sin conductor (mi impresión es que los veremos). Estos coches están hiperconectados. Es decir, no solo tienen sensores de tráfico, posición, etc… sino que además, están conectados a internet, redes sociales, a otros coches a tráfico, y a sus propios ocupantes a través de relojes, teléfonos o pulseras inteligentes. Saben más del estado del tráfico y sus usuarios que cualquier centro de control de tráfico existente hoy en día. El tráfico se optimiza, se reducen las emisiones, se llega antes a los sitios… Los beneficios sociales y ambientales son enormes. Realmente no compras coches, sino que te suscribes a un servicio de transporte. Las compañías compiten con tarifas planas, servicios dentro del coche, etc… Y sí, quedan nostálgicos que conducen su propio vehículo… en circuitos y zonas de ocio para recordar los viejos tiempos. Los seres humanos tienen limitado conducir por el peligro que representan para los propios coches con IA. No es coña, los accidentes que han tenido los coches de Google han sido provocados siempre por fallo humano.

Un día, uno de esos coches, que está ocupado por personas, es hackeado por alguien con malas intenciones o símplemente por un gamberro. El coche es controlado de forma remota desde una consola. Decide que va a conducir en dirección contraria para pasárselo bien, y porque quiere ver las caras de susto de los que están dentro del coche. Y ocurre lo inevitable. El coche va directo a un accidente contra un autobús escolar lleno de niños. El sistema de IA del autobús detecta una posible colisión, pero en ese momento tiene que tomar varias decisiones. Su mandato es salvar las vidas de los ocupantes del autobús, pero… Como estamos en un mundo hiperconectado, detecta que en el coche contra el que va a chocar viajan dos importanes científicos. Uno de ellos está trabajando en una cura para el cáncer de páncreas, y otro está investigando una variedad de trigo de altísimo rendimiento, que madura en un mes. El sistema de IA del autobús, empieza a procesar en paralelo a velocidad de luz. Llevo 10 escolares de 4 años, y si hago la maniobra de evasión, las probabilidades de que el otro vehículo tenga un accidente son de un 99%, dado que la trayectoria, velocidad, posición, y el resto de vehículos son estas. Ahora bien, en el interior del otro vehículo hay dos personas, que tienen un 80% de probabilidades de hacer dos descubrimientos que salven la vidad de 300 millones de personas. Esta decisión, la tengo que consultar con la central… Y la central de tráfico de IA, ¿qué decide?

Como he comentado, es un ejemplo civil, pero las implicaciones éticas y morales, en el ámbito militar son impensables. Creo que es ahí donde querían llegan Elon Musk (al que le asusta el tema), Stephen Hawkins, y otros muchos.

En definitiva, toda tecnología puede ser utilizada de forma perversa. El problema es que estamos hablando de una tecnología que, en un momento dado, ¿podría ser consciente de su existencia y optar por su supervivencia? Darwin así lo creería y Skynet también 🙂 No, en serio, creo que la conciencia de una máquina será algo complicado, pero algo como el ejemplo anterior, no tanto.

Dejar un comentario