Lo anterior lo podemos complejizar aún más cuando nos cuestionamos sobre los derechos. Para que una nueva concepción de vida y de consciencia tenga derechos, ¿se requiere una nueva concepción de los mismos? Esto quiere decir que no se trata simplemente de asignar derechos, sino de cuestionar la concepción misma del derecho.
Lo importante es que la pregunta es válida, evidenciando un proceso de problematización de las nociones de consciencia y legalidad. Algo que ha permitido la emergencia disruptiva de la inteligencia artificial como sistema de aprendizaje y toma de decisiones autónomo. Si la IA fuera un simple sistema automático, no habría tanto problema. El asunto trasciende cuando un sistema evoluciona hacia una algoritmización autónoma y allí debemos cuestionarnos sobre si una IA puede evolucionar hacia un “organismo vivo”. ¿Qué impide que una IA sea reconocida como un organismo vivo? Y es aquí donde la pregunta del inicio, ¿pueden y deben tener derechos los robots?, tiene sentido.
Como lo plantea Gunkel (2018), en esa pregunta hay dos: 1. ¿Pueden los robots tener derechos?, es decir: ¿tienen los robots la capacidad ontológica para tener derechos?, o mejor: “¿Son los robots capaces de ser titulares de derechos?” (Gunkel, 2018). y 2. ¿Deben los robots tener derechos?, es decir, ¿se les deben asignar derechos a los robots?, o mejor: “¿Deberían los robots ser considerados como poseedores de privilegios, reclamaciones, poderes y/o inmunidades?» (Gunkel, 2018).
Lo anterior es muy importante, toda vez que plantea el debate de si el poder tener derechos implica tenerlos, o al contrario. Es decir: 1. ¿Pueden tener derechos, y por eso deben tenerlos?, 2. ¿Pueden tener derechos, pero no deben?, 3. ¿No pueden, pero deben tener derechos?, y 4. ¿No pueden y por eso no deben tenerlos?
En ese contexto, los interrogantes se empiezan a encaminar hacia lo siguiente: ¿quién determina el poder ser y deber ser?, ¿quién tiene la capacidad de determinar que algo o alguien puede tener derechos, porque tiene la capacidad consciente de asumirlos?, ¿quién define y decide que algo o alguien debería tener derechos, aunque se determine que no tiene la capacidad de ser consciente de los mismos? Las respuestas están en lo que López Medina (2016) denomina como el proceso de construcción de los derechos. ¿Cómo se deberían construir los derechos de los robots?, ¿cómo transformar la concepción de vida y consciencia, que afirme como tal a la emergencia disruptiva de los sistemas algorítmicos evolucionados?
Bostrom (2016) afirma que hay una alternativa a la disruptividad de la IA, y es la emergencia controlada de la superinteligencia artificial como singularidad. Esto quiere decir que, si la consciencia de la IA es inevitable, se deben crear las condiciones necesarias para que esta no sea catastrófica. ¿Cómo así? Si la IA en algún momento tomara consciencia de sí (una consciencia diferente a la humana), según Bostrom (2016) esto puede tener al menos tres consecuencias: 1. Destrucción de la consciencia humana, 2. Acoplamiento con la consciencia humana, 3. Indiferencia hacia la consciencia humana. La emergencia controlada de la consciencia de la IA busca atenuar la posibilidad de una destrucción. Por eso la pregunta: ¿pueden y deben tener derechos los robots?, es necesaria porque se presenta como un dispositivo de control. La posibilidad de pensar en la asignación de un derecho, se presenta cuando hay un peligro potencial. En el caso de la IA, es el peligro de una nueva consciencia.
Esto quiere decir que la pregunta sobre la capacidad de los robots, como sistemas autónomos de IA, debe replantearse hacia las emergencias de nuevas formas de consciencia diferentes a la humana. ¿Nuevas consciencias implican el proceso de creación de nuevos derechos?, ¿pueden tener derechos los robots? Sí, siempre que se transforme y se transgreda la concepción humana de consciencia.
De igual modo, la pregunta sobre si deberían tener derechos los robots debe replantearse hacia las implicaciones éticas que las nuevas consciencias pueden tener, porque la pregunta de ¿deberían tener derechos?, cuestiona sobre las condiciones éticas de un individuo, que lo hacen merecedor de derechos. Pero también es una forma de control del individuo mismo, en tanto que al asignar derechos se le imponen también responsabilidades. Los derechos de los robots podrían ser una forma de control de la evolución de la consciencia, mediante el cual se evite al máximo el desastre. Lo cierto es que el derecho como deber, permite una operatividad pública y abierta de los desarrollos de la IA.
Para Gunkel (2018), el deber ser es lo que otorga el poder ser. Es decir, sólo cuando se considera a un individuo o a un organismo vivo como digno de asignación de derechos, es cuando se lo considera con la capacidad o la posibilidad de asumirlos, o de llegar a asumirlos. El punto ciego que tiene el argumento de Gunkel, es que en la pregunta, ¿deben tener derecho los robots, para que haga posible el poder tenerlos?, no se tiene en cuenta la inter-relación afectiva con los robots mismos. ¿Pueden y deben los robots “luchar” por sus derechos?
Cuando se afirma la posibilidad de la emergencia de otras consciencias, diferentes a la humana, se cuestiona los parámetros éticos de la vida. ¿Por primera vez se puede empezar a cuestionar a lo humano como parámetro de la existencia? Si un sistema de IA evoluciona hacia un organismo vivo, se hace necesario el reconocimiento y diálogo de esa otredad. La IA está generando un gran interrogante sobre la consciencia humana como la única que puede acceder al Logos. ¿La disrupción está cerca?
El problema se amplía cuando Gunkel (2018) afirma que entre los expertos no hay un consenso sobre cómo definir un robot. ¿Qué es un robot? Por ahora, lo que se tiene claro es que un robot es un sistema que puede: pensar, sentir y actuar, pero mediante un “procesador” de “inteligencia artificial”. Este es el punto que hace compleja la cuestión: el robot es una artificialidad, que emula una consciencia individual. Si la concepción de IA evoluciona hacia organismo vivo, ¿la concepción de robot debe evolucionar hacia la concepción de individuo?
Bibliografía
Bostrom, N. (2016). Superinteligencia. Caminos, peligros, estrategias. Teell Editorial, S.L.
Gunkel, D. (2018). Robot Rights, The MIT Press.
López, D. (2016). Cómo se construyen los derechos, Legis Ediciones S.A.
Dirección: Calle 5 # 4 - 70 | Popayán, Colombia
Horario de atención:
Lunes a jueves de 8:00 a.m. a 5:00 p.m. - Viernes de 8:00 a.m. a 4:00 p.m.
Teléfono: +57 (602) 820 9900
Línea gratuita: 018000 949020
Notificaciones judiciales
Institución con Acreditación de Alta Calidad por 8 años, resolución MEN 6218 de 2019 - Vigilada MinEducación
NIT. 891500319-2
Dirección: Calle 5 # 4 - 70 | Popayán, Colombia
Teléfono: +57 (602) 820 9900
Línea gratuita: 018000 949020
Peticiones, Quejas, Reclamos, Sugerencias y Felicitaciones
Correo: quejasreclamos@unicauca.edu.co
Notificaciones judiciales
Correo: procesos@unicauca.edu.co
Línea anticorrupción
Correo: anticorrupcion@unicauca.edu.co
Institución con Acreditación de Alta Calidad por 8 años, resolución MEN 6218 de 2019 - Vigilada MinEducación