Quantcast
Channel: Con la venia, señorías
Viewing all articles
Browse latest Browse all 14

#DebateAbiertoCon Replicante Legal (@replicantelegal)

$
0
0

Replicante Legal: Según los últimos estudios, parece que la inteligencia de las máquinas hoy es equiparable a la de un niño de cuatro años. Ruth cuestiona en un tuit que la inteligencia emocional artificial sea posible y plantea si en ese caso estaríamos creando humanos, qué nos diferenciaría de ellos y si esas máquinas deberían tener derechos.  Allá va mi punto de vista sobre esos y otros temas que han surgido durante el debate.

¿Tienen inteligencia emocional los robots?

Estoy de acuerdo en que hoy no podemos considerar que los robots están dotados de inteligencia emocional. Lo más cercano que tenemos es Pepper.

Sin embargo creo que en pocos años la situación será distinta. El propio informe del MIT dice hemos necesitado 60 años para llegar hasta este nivel pero que en los siguientes 6 años se van a lograr unos avances espectaculares porque las tecnologías relacionadas con la inteligencia artificial están creciendo a un ritmo exponencial.

Uno de los mayores expertos mundiales en estos temas es Nick Bostrom. En esta genial charla de TED, nos expone muy claramente cómo ocurrirá ese desarrollo exponencial y también nos alerta de los peligros de las máquinas súper inteligentes.

Creo que con el tema de las emociones de los robots va a suceder algo parecido. Les costará un tiempo llegar a tener la capacidad emocional de un niño pequeño, pero de ahí a la de un adulto, no pasará mucho. A día de hoy sólo son capaces de reconocer unas cuantas emociones y copiarlas pero hay varias instituciones trabajando en algoritmos emocionales y creo que pronto veremos los resultados de esa labor. De hecho, algunos expertos hablan del 2030 como fecha en la que los robots tendrán una dimensión emocional y psicológica y para esa fecha solo faltan 15 años…

Por cierto ¿qué nivel de inteligencia emocional les vamos a pedir? Lo digo porque hay personas con menos empatía y sentimientos que una escoba, pero ese es otro debate.

Ruth Benito: Pero ¿qué entendemos por inteligencia emocional? 

En la Wikipedia se define inteligencia emocional como el “conjunto de habilidades psicológicas que permiten apreciar y expresar de manera equilibrada nuestras propias emociones, entender las de los demás, y utilizar esta información para guiar nuestra forma de pensar y nuestro comportamiento”.

Partiendo de esta definición, y aunque probablemente queda aún bastante por delante, creo que sí se están produciendo avances en la interpretación de las emociones humanas por los robots sociales así como en la capacidad de réplica o copia de tales emociones.

Sin embargo, como apuntaba en Twitter, queda pendiente la parte correspondiente a las propias emociones, pues el hecho de que los robots puedan imitar reacciones humanas está muy lejos de significar que puedan experimentar los sentimientos que provocan tales reacciones. En este sentido, coincido plenamente con la joven AJung Moon cuando dice que los ingenieros han de cuidar mucho el vocabulario a emplear en la presentación de sus trabajos.

En este punto es donde más escéptica me muestro, fundamentalmente por dos motivos: de un lado, porque requiere que los robots sean capaces de sentir, lo que a día de hoy no se da (supongo que ello implica transformar a lenguaje electrónico o digital los impulsos químicos y biológicos del cuerpo humano y aun así no sé si eso sería sentir del mismo modo que lo hacemos las personas o más bien algo parecido a “leer los sentimientos”), y de otro, porque para que lo anterior sea posible primero tendríamos que entendernos a nosotros mismos, o entender cómo funcionan esos procesos químicos y biológicos. Lo explica muy bien Elena García Armada,  investigadora en el Centro de Automática y Robótica (UPM-CSIC), en “Robots”, libro del que podemos leer al respecto un extracto en el blog del CSIC “Ciencia para llevar”.

No obstante, la ciencia es poderosa descubriéndose a sí misma, de modo que haremos bien el imaginarnos en un escenario donde todo es posible.

RL: Efectivamente. Seguro que sabes que Estados Unidos está trabajando en el proyecto denominado “Brain Iniciative” para comprender cómo el cerebro piensa, aprende y recuerda y la Unión Europea se ha embarcado en una aventura parecida (“Human Brain Project”), con la finalidad de desarrollar tecnologías de computación que simulen el funcionamiento del cerebro así como de crear nuevos tratamientos para las patologías mentales.

brain

Son proyectos con inversiones millonarias y es probable que, cuando terminen, hayamos recopilado una información muy valiosa que nos permita conocer en profundidad la única parte del ser humano que todavía es un misterio para la ciencia.  Creo que va a tener un efecto parecido al que tuvo para la genética el descifrar el genoma humano completo.

Además, las neurociencias han tenido un desarrollo espectacular en los últimos años y la aparición de aparatos de imagen por resonancia magnética, de escáneres electroencefalográficos y de técnicas de estimulación cerebral profunda, nos está permitiendo conocer cómo trabajan las neuronas y otras partes del cerebro con un nivel de detalle nunca visto hasta ahora. Michio Kaku lo explica muy bien en su reciente libro “El futuro de nuestra mente”.

En resumen, creo que en pocos años seremos capaces de entender el funcionamiento de la mente y replicarlo utilizando un ordenador. Cuando llegue ese momento también podremos entender mucho mejor la forma en la que cerebro procesa las emociones. Ten en cuenta que un bebé humano tarda muchos años en reconocer y expresar emociones. Este aprendizaje se produce por la interacción con sus padres y otras personas de su entorno. Si le dejáramos en una isla solo (sin otros seres vivos)  desde muy pequeño y durante muchos años, aventuro que su nivel de inteligencia emocional sería muy pobre.

A la inversa, cuando conozcamos mejor cómo maneja el cerebro las emociones, podremos afinar los algoritmos de los robots sociales para que aprendan de forma gradual a detectarlas y expresarlas en las interacciones con las personas. Sería un proceso parecido al de educar a un niño solo que más rápido y escalable.

RB: Pues no tenía ni idea de los dos proyectos que mencionas sobre el cerebro humano, pero últimamente me planteo con más frecuencia si no fue un error elegir letras puras ;P

Te veo demasiado optimista con eso de “en pocos años seremos capaces de entender el funcionamiento de la mente y replicarlo”, yo soy algo más escéptica. En todo caso, imaginemos la variedad de implantes o prótesis cerebrales o neuronales que podrían crearse y, en este punto, te propongo, y propongo a los lectores, un ejercicio: Imaginemos una persona cualquiera y vayamos sustituyendo partes de su cuerpo por prótesis (a lo Robocop), ¿en qué momento, o con la sustitución de qué órgano, dejaría, en su caso, de ser esa persona y pasaría a ser una máquina?

Es posible que un bebé humano tarde algún tiempo en identificar y reconocer emociones complejas, pero desde el primer momento expresa emociones (que se lo digan a los padres primerizos cuando cada dos horas les despiertan los berridos de la criaturita durante, al menos, el primer mes de vida), y las expresa porque las siente, no porque esté programado para replicarlas.

Habrá quien diga que el genoma humano ya contiene una cierta programación con la que venimos de serie las personas (genotipo, ¿un sistema operativo?). A ella además luego se van añadiendo otras fuentes de experiencia y aprendizaje en cada caso que ayudan al continuo desarrollo de cada uno de nosotros (aspectos sociales, culturales, familiares etc.). Del mismo modo un robot puede venir con una programación base que posteriormente desarrollaría con tecnología “machine learning”.

Pues bien, tomemos el ejemplo del bebé, que llora desde el primer momento que tiene hambre. Es, por tanto, algo que ha heredado genéticamente, no lo ha aprendido por verlo en otros, pero el llanto se activa como reacción que, de algún modo, se sabe que facilitará el remedio al hambre. En los robots se trataría de algo con lo que ya vendrían programados, pero, mientras en el ser humano lo que activa que el llanto se ponga en marcha es la sensación de hambre, ¿qué sería lo que lo activaría en el robot?

Preguntas si llegaremos a afinar los algoritmos de los robots sociales y, en relación con esto último a lo que apunto, tenemos los algoritmos genéticos y la programación genética, inspirados en la evolución biológica, que quizá pudieran ayudar mucho en ese terreno.

RL: ¿Esos robots serían humanos? ¿Qué nos distinguiría de ellos?

Hace unos días se publicaba un artículo con el siguiente titular “Ya es posible transferir la personalidad y actitud de una persona a un robot ciberconsciente”. En la entrevista nos cuentan que han creado un humanoide (Bina 48), que está inspirado en su versión humana, y que “pasa constantemente de su identidad como robot a la de la humana en la que está basada”.

replicanteOtro ejemplo reciente: ninguna máquina había sido capaz de superar el test de Turing hasta que -en junio del año pasado- un bot llamado Eugene Goostman logró convencer a un tercio del jurado que le examinaba de que era un joven adolescente ucraniano de 13 años de edad.

Creo que cada vez va a ser más difícil distinguir a las máquinas con inteligencia artificial de las personas, sobre todo si interactúas con esas de forma no presencial. Si esto sigue así, vamos a tener que pedir ayuda a Harrison Ford.

¿Qué dice el Código Civil a este respecto? El artículo 30 establece que “la personalidad se adquiere en el momento del nacimiento con vida, una vez producido el entero desprendimiento del seno materno”. En consecuencia un robot por muy sofisticado y humano que fuera, no puede tener personalidad según el texto actual de la norma civil.

En cualquier caso, tengo curiosidad por saber cómo van a reaccionar los jueces cuando empiecen a llegar casos en los que están implicados ciborgs.

RB: Pues sí, porque dudo mucho que asistamos a respuestas por parte de legisladores y jueces como las del cuento “El hombre bicentenario”.

Yo no negaría tan rotundamente la posibilidad de atribuir personalidad a un robot. La RAE define persona como “individuo de la especie humana”, la naturaleza humana como el “conjunto de todos los hombres” y hombre como “ser animado racional, varón o mujer”. Podemos seguir buscando términos, pero me temo que seguiríamos encontrando interpretaciones capaces de amparar la comprensión de los robots sociales como humanos.

Por otra parte, el propio Código Civil nos dice en su art. 3 que las normas se interpretarán, entre otros posibles criterios, atendiendo a “la realidad social del tiempo en que han de ser aplicadas” y en su art. 4 que “procederá la aplicación analógica de las normas cuando éstas no contemplen un supuesto específico, pero regulen otro semejante entre los que se aprecie identidad de razón”.

Si buscamos los significados de nacer (dicho de una cosa) y vida, conceptos contenidos en el citado art. 30 C.c., unido a las definiciones ya dadas de persona y hombre y a estos criterios de interpretación y aplicación de las normas, veremos que no parece tan descabellado encajar la personalidad, a efectos jurídicos, en los robots sociales. En cuanto al obstáculo del “desprendimiento del seno materno”, no creo que pueda ser elemento decisorio, pues ¿acaso no consideraríamos persona al semejante gestado en una especie de tanque sustitutivo de un vientre de mujer?

Sin embargo es evidente que hombres y robots no somos lo mismo, con independencia de que ambos fuéramos merecedores de iguales o distintos derechos. Se hace preciso, pues, averiguar qué es aquello que nos diferencia y esto implica concretar qué es el ser humano y qué es la personalidad o cualidad de persona. Tenemos así que el estudio de la robótica, en mi opinión, tendrá que dar lugar, o está dando lugar ya, a una nueva corriente de filósofos (ingenieros, abogados, científicos, sociólogos…) que tratarán de dar respuesta a todas estas cuestiones que se hace necesario abordar y que, entre otras cosas, pueden hacer surgir nuevas configuraciones legales.

RL: Un pequeño apunte respecto a esto último. Para algunos expertos, la magnitud de los cambios que provocarán estas nuevas tecnologías en nuestro sistema jurídico es tal, que conviene que empecemos a pensar y desarrollar una lex robótica especial.

El principal defensor de esa tesis es el profesor americano Ryan Calo, que considera  que la robótica tiene características especiales que la singularizan  y propone incluso crear un organismo regulador ad-hoc para que tutele todo lo que tiene que ver con este campo  puesto que, en su opinión, es la única manera de dar una respuesta satisfactoria a la problemática que van a generar.

El tema de la inmortalidad

Los nuevos desarrollos técnicos también cuestionan la necesidad de la muerte. En la misma entrevista que mencionábamos antes se dice que “gracias a la tecnología podremos conseguir que la mente viva para siempre. Si es cierto que podemos capturar información suficiente de tu mente y que sea transferida a un robot, entonces, literalmente, habrá cientos de versiones de ti y en algún momento esas versiones podrán abandonar el planeta”.

Es decir, algo muy parecido a lo que se cuenta en la película Transcendence de Johnny Depp. Puede parecer ciencia ficción pero lo están afirmando los defensores de la singularidad tecnológica así como científicos de la talla de Stephen Hawking  o Marvin Minsky.

¿Cómo va a reaccionar el derecho frente a estos desarrollos que cuestionan los pilares sobre los que se basa el concepto de persona?

RB: Entiendo que, del mismo modo que el hecho de que un robot pueda emular emociones o imitar comportamientos, no significa que los sienta realmente, el hecho de “copiar la mente” de una persona y meter esa copia en una máquina o hacerla parte de su sistema operativo, no significa que la consciencia de esa persona se encuentre en la máquina de modo tal que se perciba a sí misma en dicho nuevo entorno. Aquí radica, en mi opinión, en relación con la entrevista comentada, la enorme diferencia con Transcendence.

Pero, en todo caso, se plantean diversos interrogantes desde la perspectiva legal: ¿Tendrá el “replicado” algún derecho sobre las versiones de sí mismo? ¿Y sobre las creaciones que una de esas versiones pueda generar? (derechos de autor, patentes…) Por otra parte, ¿merecerán esas versiones algún tipo de protección o de limitación en cuanto a su uso? Pensemos, por ejemplo, que su adquirente diera un trato humillante u ofensivo (o lo que resultara tal tratándose de un humano) a la versión de una persona. Y en el orden de las responsabilidades, ¿podría atribuírsele alguna a la persona versionada en relación con los ilícitos cometidos por una máquina con capacidad de decidir basada en esa personalidad transferida?

RL: ¿Deben tener derechos los robots?

La abogada Kate Darling plantea abiertamente la conveniencia de otorgar ciertos derechos a los robots sociales, tomando como base la legislación para prevenir el maltrato animal.

Creo que Darling lleva el planteamiento un poco al extremo pero coincido con una de las afirmaciones que se hace al final de su estudio: atribuir derechos a entidades que no son humanas no es una práctica nueva. Ya lo hicimos con las personas jurídicas e incluso ahora le hemos dado una nueva vuelta de tuerca y asumimos que éstas pueden cometer delitos.

La otra cara de la moneda es ¿deben tener obligaciones esos robots inteligentes? La cuestión es relevante a los efectos de la atribución de responsabilidad por sus actuaciones. El tema daría para un largo debate jurídico pero, por ir al grano, creo que vamos a tener que repensar la noción de personalidad para crear una nueva categoría (en un artículo de Replicante me animo a llamarla “personalidad mecánica”).

RB: Darling apunta como posible causa para otorgar derechos o protección a algunos animales, al hecho de que los humanos rechazamos ciertos tratos hacia ciertos animales y en consecuencia, de igual modo, podríamos conceder algunos derechos a los robots sociales, con independencia de sus aptitudes.

Tal justificación respecto a los derechos de los animales, parece que trata de evitar nuestro sufrimiento, desagrado o malestar al saber que el animal sufre o ha sufrido, más que el sufrimiento en sí del animal (sin duda esto explicaría por qué no se aplican por igual a todas las especies animales). Pero ¿podemos hacer extensivo este razonamiento hacia los robots cuando sabemos que (a día de hoy) éstos no sienten?

En todo caso, los motivos señalados por Darling en realidad no generan derechos propios de los robots, ya que, en todos ellos, el bien jurídico objeto de protección no lo es el robot en sí (es como si dijéramos que las propiedades inmuebles tienen derecho a no ser allanadas).

Parece que, directa o indirectamente, en el reconocimiento de derechos juegan un importante papel factores tales como ser sensible, capacidad de sufrir, ser consciente… Y en la imposición de obligaciones pesa en gran medida la capacidad de decisión o control que uno tenga, la intencionalidad y la voluntariedad. 

En cuanto al reconocimiento de una personalidad, efectivamente no es algo nuevo extender dicho concepto a seres o entidades distintos a los hombres. Así, tenemos ciertamente las empresas, personas jurídicas sujetos de obligaciones y de derechos propios (derecho al honor), pero también las personas no humanas animales reconocidas, en Argentina la orangután Sandra y en Brasil la chimpancé Suiza (pdf), que fue finalmente envenenada. En este sentido Nonhuman Rights Project mantiene la lucha por el reconocimiento de derechos en favor de animales.

RL: Lo de atribuir algún tipo de personalidad legal a una cierta categoría de máquinas puede parecer exagerado pero no debemos olvidar que el derecho se adapta a la realidad y a veces incluso la manipula porque considera que así se beneficia un bien superior.

Respecto de lo primero, el derecho romano reconocía la esclavitud porque estaba socialmente aceptada en aquella época. Hoy está abolida en todos los países desarrollados porque nadie concibe que un ser humano pueda ser el propietario de otra persona. Algo parecido podemos decir de la segregación racial o del derecho al voto de las mujeres. Pero es que también existen ocasiones en las que las normas modifican la realidad. Es el caso por ejemplo de la adopción, que “borra” el pasado biológico de un menor y le atribuye una nueva filiación, ex artículo 178 del Código Civil.

No me quiero extender más porque es un tema que trato más en detalle en un artículo que se va a publicar en breve en el monográfico sobre robótica de la nueva revista de privacidad y derecho digital de RDU, que dirige mi querido amigo Pablo García Mexía y a la que os emplazo a suscribiros porque es magnífica.

RB: En relación con esta cuestión, y por dejar a un lado la teoría de la personalidad como elemento generador de derechos y obligaciones, vuelvo al punto de las emociones. Quizá el ser capaces de sentir emociones, incluso emociones muy complejas que nos cuesta verbalizar pero que tenemos aprehendidas e identificadas en algún nivel de nuestra consciencia (o genoma y cerebro), es lo que caracteriza a la inteligencia humana. Nuestro sentido del humor, la ironía, la creatividad, la ilusión, la imaginación… Se me hace muy difícil aceptar que todas estas capacidades puedan desarrollarse en máquinas que sí sepan interpretar, leer y copiar emociones pero que no puedan experimentarlas “en carnes propias”.

Quizá estas emociones y capacidades complejas, o en un nivel tal de complejidad que sólo se da en el ser humano, sean lo que haga necesario que tengamos unas normas de convivencia. Por no extenderme demasiado pondré sólo dos ejemplos: 1) el amor y la regulación del matrimonio y de los derechos y obligaciones entre familiares y 2) la creatividad y los derechos de propiedad intelectual.

derechos

Personalmente, llegado el caso de que los robots sociales pudieran efectivamente sentir y tener consciencia de sí mismos, creo (aún hay mucho por reflexionar) que sería partidaria de que fueran considerados personas no humanas artificiales o personas mecánicas y sujetos de derechos y obligaciones.

RL: Aspectos éticos

Es una de las cuestiones más relevantes de este debate desde mi punto de vista. Hay un proyecto muy interesante que ha financiado la Comisión Europea y que se ha publicado hace unos meses. Se llama Robolaw y el resultado es un informe que analiza las cuestiones éticas y legales que pueden plantear los robots, y ofrece principios y directrices que permitan orientar a los reguladores. El documento es extenso pero es de lo mejor que he leído últimamente.

Este tema de las cuestiones morales está ahora de moda por la problemática que plantean los coches sin conductor. Planteo dos preguntas para ilustrar la cuestión:

En caso de accidente inevitable ¿los algoritmos que controlarán a los futuros coches sin conductor deberían dar prioridad al número de vidas salvadas, a los individuos potencialmente involucrados o valorar quién cumplía las normas de circulación?

En el supuesto de que no haya otra opción ¿debería el coche sacrificar a su ocupante con un giro brusco que lo haga caer por un precipicio para evitar matar a los niños que llenan un autobús escolar?

Es una nueva derivada del debate filosófico que en inglés denominan “trolley paradox”. Obviamente también aparece aquí el debate jurídico relativo a la atribución de responsabilidad. Ambos son apasionantes pero creo que no deberían frenar la introducción de estas nuevas tecnologías. No debemos olvidar que cada mes mueren más de 100.000 personas en el mundo por accidentes de tráfico y que el 90% de dichos accidentes está causado por errores humanos.

RB: Fantástico análisis el de Robolaw, por el vistazo que he podido echarle, que dejo como objetivo para una lectura pormenorizada en cuanto me sea posible.

Desde luego, no creo que a nadie que se acerque un poco a la robótica le pase inadvertida la cantidad de implicaciones éticas que ésta supone. Como muchas de las tecnologías que en los últimos años se están desarrollando, y al igual que ya sucede con las evaluaciones de impacto en materia de protección de datos, hay autores, como David Wright y Michael Friedewald, que alertan de la necesidad de realizar, con carácter previo al desarrollo de nuevos proyectos de ICT, evaluaciones de impacto ético (EIA, en sus siglas en inglés Ethical Impact Assessment), e incluso sugieren ya alguna metodología para ello.

Sin duda, la robótica es una de las tecnologías sobre la que más se ha hablado y escrito desde la perspectiva ética. De hecho, existe el término “roboética” (roboethics), que se atribuye a Gianmarco Veruggio, del que animo a ver esta conferencia, y ya en 2004 se celebró el Primer Simposio Internacional sobre Roboética.

Podríamos hablar sobre todas estas cuestiones durante días y días, pero amigo Replicante, creo que con esto los lectores tienen una buena aproximación a la robótica y a la importancia de un enfoque ético y legal sobre la materia.

Terminaré con un par de reflexiones que planteo a los lectores:

1 – ¿Con qué fin queremos crear robots con inteligencia humana, que puedan tener emociones como los humanos y con capacidad de aprendizaje?

2 – ¿Estamos de acuerdo con la siguiente cita de Sydney J. Harris: “The real danger is not that computers will begin to think like men, but that men will begin to think like computers” (el verdadero peligro no es que las computadoras empiecen a pensar como los hombres, sino que los hombres empiecen a pensar como las computadoras)? ¿Seguro? ;)

 

Autores: Replicante Legal y Ruth Benito Martín.

Imágenes: La imagen destacada es de ankakay, el resto de imagenes han sido diseñadas por Freepik

Post publicado simultáneamente en el blog de Replicante Legal.


Archivado en: #DebateAbiertoCon Tagged: IA, Inteligencia Artificial, Inteligencia emocional, Machine learning, Robótica, Roboética, Roboethics, Robots

Viewing all articles
Browse latest Browse all 14

Trending Articles