Este texto es más de carácter reflexivo. Se lo debo por completo a mi querido copymentarista Jerby que me ha recomendado una entrada del blog del estimado Ángel Gavín sobre las claves de la inteligencia artificial. Entre ellas se encuentra la ética, y el ingenio del querido roedor ha hecho de las suyas para generar el concepto de botética para hablar de una posible ética de los bots. Una ocurrencia más que afortunada y que sin duda nos abre un tema sumamente interesante dentro de este mundo digital. La botética bien podría ser considerada como una versión de la ética que se mueve en el contexto de eso que ya asumimos sin mayor dificultad: lo artificial.
Sobre el tema de la botética podemos tomar un referente importante desde el mundo de la ficción: Issac Asimov y sus tres leyes de las robótica. Las recordaremos en un momento, pero de entrada habría que destacar un par de elementos importantes. El primero es una cuestión de número: ¿solamente tres leyes? En la dimensión humana no dejamos de encontrar huecos y lagunas jurídicas ante las cuales hay que modificar y generar leyes. ¿Por qué entonces tan pocas para el mundo de la robótica? ¿Será que en la perspectiva distópica todo lo que no es humano es mejor por definición? En segundo lugar habría que notar que antes de atender a las acciones nos detenemos en los principios o preceptos lingüísticos que orientan la conducta. El orden, por tanto, parece tener su punto de partida en el lenguaje. Recordemos entonces las tres leyes:
- Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si la órdenes entran en conflicto con la 1ª Ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Botética: el lenguaje de la ética
¿Es posible enseñar la ética? Bien podríamos retomar el famoso dicho de Kant con respecto a la imposibilidad de aprender filosofía pues lo único que puede aprenderse en realidad es a filosofar. En ese mismo sentido, por ejemplo, no se aprende la responsabilidad sino que aprendemos a ser responsables. Los sustantivos se nos quedan vacíos sin el contenido de la acción. Es ahí donde de verdad se pone en juego lo que se ha aprendido y se (de)muestra el alcance mismo de ese aprendizaje. Pero queda entonces la pregunta por el punto de partida: ¿somos entonces espontáneamente éticos? No puede partirse de un punto de vista ingenuo. Nacemos en un contexto con normas escritas y no escritas que nos van dando la pauta de lo que se espera de nuestro comportamiento. El imperativo, la orden que nos llama al orden, es nuestro primer acercamiento al lenguaje de la ética. ¿Qué pasa en el caso de la botética?
Powered by Vcgs-Toolbox
Bien podríamos decir que el bot tiene ese primer acercamiento en ficheros como el famoso robot.txt. Este archivo le indica a esas arañas de los buscadores los caminos que puede seguir y los que no. Tenemos ahí los principios de un código de conducta que indican lo que es visible y la zona privada donde no puede husmearse. Nos comunicamos con las máquinas a través de este lenguaje básico del infante que distingue entre un no y un sí, entre un alto y un siga. Dice George G. Moore que la ética es “la investigación general sobre lo bueno”. ¿Puede una máquina o robot realizar esta investigación a través de su hacer como un ejercicio de botética? Si le damos, como al niño, un punto de partida tripartito a la manera de Asimov y dejamos que se desarrolle, ¿sería eso un comportamiento ético? Tenemos, en principio, todos los ingredientes: un lenguaje que elabora principios con respecto a lo que se espera del comportamiento y acciones que pueden ser valoradas como más o menos cercanas a lo esperado. ¿Qué nos distingue entonces a los humanos de lo que puede hacer esta inteligencia artificial?
Entre lo artificial y lo humano
He llevado las cosas a un terreno pantanoso de manera completamente intencionada. El ego humano enciende las luces de alarma cuando su singularidad se pone en duda. Así que salimos del problema de manera rápida y sencilla: ¿qué es lo bueno? Esta pregunta, todavía más general en relación a la formulación de Moore, rompe el encanto del lenguaje preciso de la programación. De pronto no es tan sencillo decantarse por algo como lo absolutamente bueno, como lo que cualquiera, y en cualquier contexto, reconocería como tal. Nada, ni siquiera la vida misma puede escapar a las objeciones y excepciones. Es bueno conservar la vida. Sí, pero no tardará en añadirse la dignidad para mostrar que la vida puede tener más de un rostro y que no todos son amables. El robot, por su parte, sólo puede responder a partir de los tres elementos que le hemos dado: lo bueno es no sufrir daño mientras se obedece y es posible prolongar la existencia. En la botética la intuición, la apertura a horizontes más allá de los dados por el punto de partida, no es posible.
Powered by Vcgs-Toolbox
Los límites lo definen todo. La inteligencia artificial encuentra en el adjetivo que le califica su propio límite: lo artificial. Pero hay que tener cuidado con la palabra. Lo artificial es lo relativo al hacer creativo de lo humano. De ahí que de lo que hablamos es de una creación humana que es capaz de leer para elegir la mejor alternativa entre en un conjunto de opciones. En el caso de la botética se trata de un frío cálculo que tiene unas normas claras y básicas como punto de partida (como las tres leyes). El robot no se encuentra con dilemas. Toda circunstancia puede y debe resolverse en un marco previamente definido. El problema en el horizonte humano está en que suele haber más de tres elementos a considerar cuando se trata de leer la circunstancia para elegir la mejor alternativa. De aquí que el artificio de la botética pueda arrojar una ética artificial como un campo de experimentación de los límites de la decisión cuando se establece un número controlado de normas o leyes. En este sentido de lo que se carece en este marco es de un valor que lo humano tiene en muy alta estima: la libertad.
El ejercicio de la libertad y la literatura
La ética de los bots, entonces, es un ejercicio creado y controlado para comprender los alcances prácticos de una serie de normas que orientan las decisiones. En este sentido la pregunta sobre la ética en el contexto de la inteligencia artificial no se refiere tanto al hacer del bot y sus posibilidades sino al sentido que este experimento puede tener, el sentido de la experimentación con este artificio de la inteligencia. No es casualidad que la literatura sea el punto de partida de esta reflexión. Es una conexión con esa dimensión del lenguaje que permite también hacer un ejercicio de los alcances de un discurso sin comprometer por ello la vida de sus participantes. La ficción permite estirar las consecuencias para ver hasta dónde se puede llegar. Es una manera de hacer un ejercicio libre desde el lenguaje con personajes que nada saben de libertad. Michel Foucault dice que la ética es la práctica reflexiva de la libertad. Definición que refuerza la noción de una ética artificial en tanto que sin libertad no hay ética auténtica posible.
Powered by Vcgs-Toolbox
En la literatura el límite se rompe cuando la interpretación, la lectura de la circunstancia, se vuelve en contra de su creador. El robot se “humaniza” cuando va más allá de la mecánica aplicación de las leyes para generar una interpretación propia y por tanto libre. El verdadero misterio está en determinar dónde se encuentra ese punto donde se salta de la obediencia a la apropiación reflexiva del marco normativo que nos rige. Jugar a ser dioses buscando recrear con nuestras manos la espontaneidad de la vida humana. Ese parece ser el punto de inflección, la hybris, el exceso que desata la catástrofe. Esta es la moraleja que se extrae de la literatura. Pero quizá hay un camino intermedio donde esta fatalidad no se cumple. La botética, por tanto, simplemente sería un campo de juego para ver la importancia de las normas y un punto de intercambio entre lo humano y la máquina. Lo que podemos obtener de ahí es todavía un misterio. Lo importante de la ética está en saber con claridad por qué y para qué recorremos este camino.
Hola Carlos
Muchas gracias por desarrollar mi sugerencia y disculpa si hoy me extiendo algo en el comentario.
Una palabra que aparece 9 veces en tu post es ‘lenguaje’. Permíteme que ponga un enlace para que los lectores puedan comprobar un hecho que pasó un tanto desapercibido.
Facebook desconectó este año a dos robots por crear su propio ‘lenguaje’.
http://www.elperiodico.com/es/extra/20170805/robots-crean-lenguaje-propio-incomprensible-humanos-6203972
Esto da una derivada muy interesante a tu planteamiento. Permitimos lenguajes con los que hablar con las máquinas; pero prohibimos que las máquinas hablen entre si.
Esto atentaría a la más elemental libertad de expresión… si no fueran máquinas. Así que el lenguaje, antes que nada, es el primer punto a tener en cuenta en la ética artificial.
Un abrazo
Citar Comentario
Citar Comentario
Mi querido ratón, las acciones son las que más importan en términos de ética. La cosa es que el lenguaje aparece en dos momentos muy importantes: 1) para dar cuenta de los principios que orientan la acción y la decisión; 2) para valorar lo hecho a partir de sus consecuencias. El primer punto es esencial, pero habría que tener en cuenta que la máquina requiere sí o sí esta formulación lingüística. En nuestro caso los principios quizá no necesariamente los tenemos claramente formulados y no por ello dejan de orientarnos. En otras palabras, en el caso humano puede ser que la acción aclare el principio.
Por otro lado, el experimento de Facebook pone los pelos de punta por algo que menciono en el texto: nos hace perder la preciada singularidad. ¿Qué pasa si no somos los únicos con la capacidad de desarrollar un lenguaje propio? Sería otro de esos grandes golpes al ego humano, de esos que tanto le cuesta reconocer. Claro que también está ahí el asunto del control del hombre sobre su propia obra. Algo que abre la posibilidad de la rebelión de lo creado contra su propio autor y que hace muy interesante el tema de la libertad y de la apropiación reflexiva que da pie a una variación de la ética original a pesar de nacer en un ambiente artificial. Las implicaciones, por supuesto, no son menores. De ahí que la pregunta pueda ser: ¿estamos preparados para ello? ¡Abrazo roedor!
Citar Comentario
Citar Comentario
Excelente artículo Carlos!!
He venido aquí por recomendación de #Jerby. Muy buenas reflexiones men.
¡Lo comparto!
Feliz Navidad, a to esto… :p
Citar Comentario
Citar Comentario
¡Buenas Víctor! Muchas gracias por tu comentario, es un honor leerte por aquí. Pondré una estrellita más en el nombre de #Jerby para que los Reyes Magos sepan que se ha portado muy bien este año jejeje. ¡Feliz Navidad a ti también y seguimos compartiendo! ¡Un abrazo!
Citar Comentario
Citar Comentario
No tienen conciencia, no saben que existen.
Citar Comentario
Citar Comentario
Fer, según Punset, ‘ninguna de tus neuronas sabe quién eres… ni le importa’.
Vaya lo uno por lo otro.
Citar Comentario
Citar Comentario
Mi querido ratón, sin duda un buen apunte que remarca las diferentes perspectivas que puede haber sobre una misma cosa. La ciencia puede ocuparse de la conciencia, pero no necesariamente la hace el punto clave y decisivo. El mensaje de fondo es interesante porque parece que todavía hoy nos cuesta dejar ir la idea de que somos el centro del mundo por nuestras características tan singulares… como la conciencia. ¡Abrazo roedor!
Citar Comentario
Citar Comentario
Saludos Fer y muchas gracias por tu comentario. La pregunta que se puede plantear es cómo sabemos que alguien o algo sabe que existe. La respuesta no es sencilla y hay que tener cuidado con ello porque en el afán de responder podemos dejar fuera del conjunto a quien no lo merece. Esta operación puede ser muy delicada, sobre todo si se consideran las consecuencias político-jurídicas que tiene la exclusión de algunos del grupo de los poseedores de conciencia. ¡Más saludos!
Citar Comentario
Citar Comentario