JURÍDICO ARGENTINA
Doctrina
Título:Inteligencia artificial y derecho. Un abordaje preliminar
Autor:Jara, Miguel Luis
País:
Argentina
Publicación:Revista Jurídica Electrónica - Número 9 - Abril 2021
Fecha:07-04-2021 Cita:IJ-I-CXIII-349
Índice Citados Relacionados Ultimos Artículos
Sumarios

La sociedad se encuentra atravesando por uno de los más grandes cambios: la revolución exponencial de las nuevas tecnologías de la información y la comunicación. Estas tecnologías innovadoras basadas en datos digitales pueden beneficiar tanto a nivel individual como a la sociedad en general, así como potencialmente impulsar la economía, la productividad, promover la sustentabilidad y promover grandes avances en términos de progreso científico, social y en el derecho.
Se está ante un punto de inflexión en la historia y —como no podía ser de otra manera en el derecho— este creciente impacto de las nuevas tecnologías disruptivas exige trabajar en nuevos mecanismos para garantizar los principios constitucionales, principios en materia de derechos humanos y democráticos.


Palabras Claves:


Inteligencia artificial ─ jurisprudencia argentina ─ ética ─ datos.


Introducción
1. Introducción a la IA
2. La inteligencia artificial
3. Historia de la IA
4. Inteligencia en sentido amplio
5. Distintos niveles de inteligencia artificial
6. La inteligencia artificial en el mundo
7. IA y derecho en Argentina
8. La inteligencia artificial, el big data y el derecho
9. Ética en la inteligencia artificial
10. Los códigos de ética en la IA
Conclusiones
Notas

Inteligencia artificial y derecho. Un abordaje preliminar

Miguel Luis Jara [1]

“Los matemáticos quieren tratar los asuntos de la percepción matemáticamente y, con ello, se ridiculizan a sí mismos. … La mente lo hace todo tácita, naturalmente, y sin reglas técnicas”.
Blaise Pascal, Pensées

Introducción [arriba] 

La sociedad se encuentra atravesando por uno de los más grandes cambios ocasionados por la cuarta revolución industrial, la revolución exponencial de las nuevas tecnologías de la información y la comunicación. Todo ello sumado a la crisis sanitaria ocasionada por el COVID-19. Estas tecnologías innovadoras basadas en datos digitales pueden beneficiar tanto a nivel individual como a la sociedad en general, a todos los estratos sociales, así como potencialmente impulsar la economía, la productividad, promover la sustentabilidad y promover grandes avances en términos de progreso científico, social y en el derecho.

La significativa evolución de las herramientas digitales en todos los ámbitos (inclusive en el derecho) ya es un hecho. Y dentro de estas nuevas tecnologías hay una que destacara por el impacto que tiene con las personas, tal como lo vienen haciendo las Tecnologías de Información y Comunicaciones en la vida diaria con la simple apertura de un navegador o la apertura de nuestro correo electrónico.[2]

Previa continuación con el avance de este artículo, se tratarán conceptos que serán vitales para el desarrollo del presente. Más adelante se analizarán en profundidad en cada apartado ya que la inteligencia artificial (IA), al ser tan novedosa, presenta el problema en cuanto a su definición.

En este caso en particular se tratará a la IA, una de las tecnologías emergentes más importantes de los últimos tiempos.

En este momento, la IA es una de las tecnologías que más puede influir en muchísimos aspectos de la sociedad. Por lo que es necesario el desarrollo de muchas estrategias de investigación, desarrollo tecnológico e innovación que contribuya a la generación de beneficios económicos y sociales.

Al mismo tiempo, se puede establecer que la IA plantea riesgos para los derechos y libertades fundamentales. La IA plantea una amplia gama de cuestiones éticas y legales centradas en dos cuestiones: el papel que queremos que desempeñen estas nuevas tecnologías y su diseño. Si queremos asegurarnos de que la transformación digital sirva al bien de la sociedad en su conjunto, tanto la propia sociedad y sus representantes políticos electos deben participar en un debate sobre cómo utilizar y dar forma a los datos y a la IA.

Por ejemplo, esta cuestión fue planteada en la Unión Europea, pero antes de ello, en Alemania se trabajó en desarrollar la ética en la IA, en puntos de referencia y directrices, así como recomendaciones específicas para la acción, con el objetivo de proteger al individuo, preservar la cohesión social y salvaguardar y promover la prosperidad en la era de la información que estamos viviendo.

En el ámbito privado, incluso empresas como Google ha establecido estándares concretos denominados Los siete mandamientos de la IA de Google, a partir de los que evaluará los proyectos de IA en base en los objetivos establecidos.

Como punto de partida, el gobierno alemán presentó la Comisión de Ética de Datos[3] con una serie de preguntas clave agrupadas en torno a tres temas principales: toma de decisiones basadas en algoritmos (ADM), IA y datos.

La IA es simplemente una entre muchas variantes posibles de un sistema algorítmico y tiene mucho en común con otros sistemas similares en cuestiones éticas y legales planteadas. Con este en mente, la Comisión de Ética de Datos ha estructurado su trabajo bajo dos ejes diferentes: datos y sistemas de algoritmos (en el sentido más amplio).

Por lo tanto, se dice que la Unión Europea cuenta con avances bastante enriquecedores de los países miembros y del bloque en materia de IA y de ética, preparando así el terreno para una posible legislación.

1. Introducción a la IA [arriba] 

En algún momento todos vamos a tener que comenzar a hablar de esta nueva tecnología disruptiva, la IA.

El uso de algoritmos y de inteligencia artificial —así como el manejo de datos digitales— tienen y van a terminar teniendo en todos los países un potencial enorme. Pero al mismo tiempo los usos de esta plantean numerosas cuestiones éticas y legales.

Las nuevas tecnologías que trabajen con datos ofrecen importantes oportunidades para las personas y pueden generar beneficios socioeconómicos en su conjunto. No obstante, también se percibe que la digitalización conlleva ciertos riesgos y nuevas cuestiones: ¿qué papel queremos que asuman las nuevas tecnologías en el futuro? ¿Es posible una estrategia para identificar y reducir la presencia e influencia de sesgos humanos en algoritmos y modelos de inteligencia artificial? ¿Qué límites éticos se aplican al uso de sistemas algorítmicos y sistemas de toma de decisiones?

Las respuestas a estas cuestiones deben tener en cuenta numerosas cuestiones, incluidos los aspectos técnicos, éticos, legales y sociológicos. Con el fin de garantizar que todos estos diferentes puntos de vista estén adecuadamente representados dentro de una discusión inclusiva sobre nuestro futuro.

A nivel internacional los gobiernos se encuentran tratando de actualizarse al cambio de paradigma existente con las nuevas tecnologías. Enfrentan el reto de impulsar y facilitar el desarrollo social y el crecimiento económico basado en las tecnologías de la información y de la comunicación (TIC), y de proporcionar a sus ciudadanos una efectiva y transparente protección de sus derechos y obligaciones.

En el Mercosur y en nuestro país todavía queda mucho camino por recorrer en materia de IA. Actualmente se encuentran rezagados en la materia, no cuentan con el tratamiento específico que está siendo dedicado a la IA, como por ejemplo lo hacen Estados Unidos, China o la Unión Europea.

Previo a continuar se debe realizar un análisis de la experiencia científica, técnica y legal para poder llegar a las cuestiones éticas en esta materia. En esta cuestión la Unión Europea tiene más camino andado en materia de IA que el Mercosur. En Alemania la Comisión de Ética de Datos[4], que inició su labor el 4 de septiembre de 2018, fue establecida para elaborar un marco sobre cómo desarrollar una política de datos y abordar los algoritmos, la inteligencia artificial y la innovación digital. Resolver las cuestiones de ética de los datos puede dar impulso al proceso de la evolución digital y puede ayudar a definir un enfoque para superar los conflictos sociales en el ámbito de la política de datos y la regulación probable de estos.

Tampoco se puede pasar por alto a la importantísima labor de la Comisión Europea, llevada a cabo por la Comisión sobre IA[5]. La misma ha lanzado la nueva estrategia de la Unión Europea en esta materia; primero con una guía ética para el uso responsable de inteligencia artificial denominado Borrador de pautas de ética para una IA confiable[6] y dos años después con la comunicación de la Estrategia Digital Europea y El libro Blanco de la IA[7], el que formula alternativas políticas para alcanzar estos objetivos y convertirse así en líder mundial de la innovación en la economía de los datos y sus aplicaciones. Esto lo busca conseguir a través de dos bloques: el desarrollo de un ecosistema de excelencia y el desarrollo de un ecosistema de confianza. Se trata de un enfoque europeo común en torno a la IA, a fin de alcanzar la envergadura suficiente y de evitar la fragmentación del mercado único.

2. La inteligencia artificial [arriba] 

“Quien llegue a ser líder en esta esfera será el que domine el mundo”, esto dijo el presidente de Rusia, Vladímir Putin refiriendo a la IA.

“La IA es una de las cosas más profundas en las que estamos trabajando la humanidad. Es más profunda que el fuego o la electricidad”, dijo el líder ejecutivo de Alphabet Inc. (Google), Sundar Pichai.

Esta es probablemente la disciplina técnico-científica con más potencial de los últimos años, la que plantea una revolución sin parangón en nuestro mundo. Andrew Ng[8], una de las personalidades más conocidas en este ámbito, la llama "la electricidad del siglo xxi". Y sin embargo es difícil dar una definición concisa y clara de qué es la inteligencia artificial.

En este sentido, Alan Turing[9], padre de la informática, también trató de dar respuesta a esa pregunta y esquivó responderla directamente. En lugar de eso inventó un examen para tratar de determinar si algo poseía o no inteligencia artificial. Así nació el Test de Turing[10] utilizado para comprobar el comportamiento inteligente de una máquina.

No hay una definición exacta sobre lo que significa, la inteligencia artificial es el nombre que se le asigna a una serie de tecnologías que imitan o emulan el pensamiento humano. Otro concepto popular es la capacidad de que las máquinas piensen y razonen por su cuenta.

En esta materia, John McCarthy[11] ya en el año 1956 definió la inteligencia artificial como: “la ciencia e ingeniería de hacer máquinas que se comporten de una forma que llamaríamos inteligente si el humano tuviese ese comportamiento”.

La IA es definida en el diccionario de Oxford como el uso de computadoras para tareas que normalmente necesitan de la inteligencia humana. Tal como se puede ver, la IA es un área de la informática y comparte algunas técnicas con otras disciplinas, como la informática, la matemática, la estadística, la ciencia cognitiva e incluso, tal como se desarrollará en el presente, con la ética y la filosofía.

Muchas han sido las definiciones que se han ido dando a lo largo del tiempo, pero entre una de las más populares en los últimos tiempos también existe la de Robert Sternberg, psicólogo de la Universidad de Yale. Este académico define inteligencia como: “la actividad mental que sirve para adaptar o conformar entornos relevantes para nuestra vida personal”.

Por lo dicho, se puede decir que la misma se basa en el uso de algoritmos y de datos. Los algoritmos se pueden definir como: “el procedimiento para encontrar la solución a un problema mediante la reducción del mismo a un conjunto de reglas”[12]. Por otra parte, en el 2017 el Parlamento Europeo estableció que los algoritmos pueden definirse como: “conjuntos bien definidos de pasos para lograr una determinada meta”

3. Historia de la IA [arriba] 

El artículo “Números Calculables” publicado en el año 1936 por Alan Turing tuvo una fuerte repercusión en todo el ámbito académico. Se considera que en este texto se establecen las bases teóricas de las ciencias de la computación.

También en esta obra diseñó una máquina capaz de implementar cualquier cálculo que hubiera sido formalmente definido, pilar esencial para que un dispositivo pueda adaptarse a distintos escenarios y razonamientos. Las ideas expuestas en la publicación son consideradas como precursoras de las computadoras digitales.

Un logro extraordinario gestado por Alan Turing en los orígenes de la inteligencia artificial es la construcción del primer computador electromecánico en el año 1940.

En el año 1950, tras descifrar la máquina enigma[13] durante la Segunda Guerra Mundial y sentar las bases de la informática actual, Turing plantea en un artículo académico el ensayo Computing Machinery and Intelligence, realizado mientras trabajaba en la Universidad de Mánchester. En él plantea si las máquinas pueden pensar y presenta el Test de Turing, un examen de la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de este.

En el año 1956, Allen Newell, Herbert Simon, Marvin Minsky, Arthur Samuel y John McCarthy (cuya definición de IA ya ha sido compartida en párrafos anteriores) se reunieron en Dartmouth College, una universidad privada ubicada en Hanover, Nuevo Hampshire. En esa reunión se crea y se trata por primera vez a la IA. Además, cabe remarcar que estos estudiosos creyeron que desarrollar esa capacidad y dotar a las máquinas de la capacidad de pensar sería tarea fácil, cuestión que recién en los últimos años de la década de 1950 y los primeros de la de 1960 la inteligencia artificial vivió una era esplendorosa en la que las máquinas lograban jugar a las damas mejor que muchos seres humanos, resolvían problemas algebraicos y lógicos e incluso aprendían a hablar inglés. La inversión en proyectos de IA era enorme y los creadores creían que ese reto pronto se superaría. Herbert Simon predijo que en 20 años desde ese momento: "las máquinas serían capaces de realizar el trabajo de cualquier hombre", mientras que Marvin Minsky afirmó: "el problema de crear ‘inteligencia artificial’ estará sustancialmente solucionado en esta generación". Pero se equivocaron, los creadores del campo vieron cómo a pesar de esos avances, los retos de esa IA equiparable a la inteligencia natural de los seres humanos eran difícilmente alcanzables.

En el año 1965 fueron desarrollados los “sistemas expertos”. Este término fue usado por primera vez en la Universidad de Stanford por el doctor Edward A. Feigenbaum. En este periodo de investigación en el campo de la IA se creía que con la suma de unas pocas reglas de razonamiento y potentes ordenadores se podía emular el razonamiento humano actuando tal y como lo haría un experto en un área de conocimiento.

En 1966 Joseph Weizenbaum desarrolla en el MIT la IA Eliza, el primer chatbot[14] en procesar lenguaje natural.

Al optimismo desmesurado que se venía teniendo en la materia le siguió un "invierno de la IA[15]" a partir del año 1970. Las expectativas en cuanto a IA no fueron cumplidas, cosa que paralizó las fuentes de inversión y la investigación durante años.

En 1972 Hubert Dreyfus, filósofo estadounidense y profesor de filosofía en la Universidad de California, Berkeley, realizó una profunda crítica a la IA en su obra Lo que las computadoras todavía no pueden hacer[16] donde establece una serie de limitaciones a esta.

En la década de 1980 surge también el concepto de base de datos inteligentes. Es un concepto renovador que trasciende al simple almacenamiento de información.

Aparece “el invierno de la IA”, clara analogía a la idea del invierno nuclear. Hubo dos grandes “inviernos” o períodos. Uno entre 1974 y1980 y luego otro entre 1987 y 1993, hasta que finalmente comenzaron a haber inversiones nuevamente, como la realizada por el gobierno de Japón y la quinta generación de computadoras[17], donde los beneficios de las IA avivan el interés en esta materia.

En 1994 dos vehículos robots gemelos VaMP y Vita-2 de Daimler-Benz y Ernst Dickmans, condujeron solos más de mil kilómetros en una autopista de París con tres carriles, en días habituales y con tráfico intenso a velocidades de 130 km/h.

En 1997 IBM presento un programa informático capaz de vencer en el ajedrez a un humano, puntualmente al campeón del mundo Gari Kaspárov. Se llamaba Deep Blue[18] y sirvió de base para que la industria tecnológica y la sociedad en general cobrara conciencia de la relevancia y las posibilidades de las IA.

En el 2008 Google lanza la primera aplicación con reconocimiento de voz[19].

En el 2011 IBM crea Watson: un sistema basado en inteligencia artificial capaz de responder a preguntas formuladas en lenguaje natural. Forma parte del proyecto del equipo de investigación DeepQA, liderado por el investigador principal David Ferrucci. Se le asignó este nombre en honor del fundador y primer presidente de IBM, Thomas J. Watson.

Watson responde a las preguntas gracias a una base de datos almacenada localmente. La información contenida en esa base de datos proviene de multitud de fuentes, incluyendo enciclopedias, artículos de noticias y obras literarias, al igual que bases de datos externos, taxonomías y ontologías.

Del 14 al 16 de febrero de 2011, para probar sus capacidades reales, participó en Jeopardy, un concurso de televisión de Estados Unidos, derrotando a sus dos oponentes humanos al mayor ganador de dinero en toda la historia del programa, y también al poseedor del récord por la racha más larga de campeonatos.

Desde entonces, IBM Watson se ha convertido en el estandarte de los sistemas cognitivos, procesamiento de lenguajes naturales y el razonamiento y el aprendizaje automático.

En el año 2014 se crea ROSS Intelligence “el primer abogado Robot”, y en el 2016 se lanza públicamente. Esta IA creada por una start-up canadiense de la Universidad de Toronto utiliza la tecnología y la IA de Watson con el objetivo de convertirse en un asistente ultra cualificado que procesa el lenguaje humano o más técnicamente el procesamiento del lenguaje natural [20]. Conocido entonces como la versión jurídica de Watson de IBM, Ross es quien realiza la búsqueda de sentencias o documentación legal aplicables al caso que lo ocupa[21].

En 2017, el robot Sophia obtiene por primera vez la ciudadanía de un país, en este caso ciudadana de Arabia Saudita. Sophia es un robot humanoide (ginoide) desarrollado por la empresa Hanson Robotics, con sede en Hong Kong.

En ese mismo año, DeepMind crea a AlphaZero, una IA que es capaz de aprender a jugar desde cero al ajedrez, shogi y Go, y terminar ganando a todas las IA que se habían proclamado campeonas en cada uno de esos juegos.

En los últimos años Baidu[22], las cinco “big tech” (Google, Apple, Facebook, Amazon y Microsoft), y otras empresas que implementan las IA aprovecharon el aprendizaje automático por sus incuestionables ventajas. Además del procesamiento de datos del usuario para comprender el comportamiento del consumidor y las personas, las empresas alrededor del globo e incluso naciones han continuado trabajando en el big data, el procesamiento en lenguaje natural, el machine learning y una gran cantidad de otras aplicaciones de IA.

4. Inteligencia en sentido amplio [arriba] 

En este punto del trabajo de investigación, previo a continuar y establecer qué es la inteligencia artificial, primero se debe definir qué es la inteligencia y sus tipos.

La inteligencia, de acuerdo con una de las acepciones propuestas por la Real Academia Española (RAE), es la facultad o habilidad que tienen las personas para resolver problemas.

Ahora bien, esa inteligencia está a su vez compuesta de tres tipos de inteligencia distintas:

La inteligencia componencial (nuestra capacidad de análisis): esta es la dirección consciente de nuestros procesos mentales para analizar y evaluar ideas, resolver problemas y tomar decisiones.

La inteligencia experiencial (nuestra creatividad): la capacidad de afrontar tareas novedosas, formular nuevas ideas y combinar experiencias. Es la inteligencia propia de los artistas, de esas personas excéntricas que no suelen hacer lo que todos los demás y que tienen muchísima tolerancia a los cambios.

La inteligencia práctica (la capacidad de adaptación al medio): la adaptación, selección o modificación del ambiente individual. Es considerada la inteligencia más importante y depende de las otras dos mencionadas, ya que el éxito o fracaso vital de la persona dependerá de ella.

Esa acepción podría ser planteada también para definir IA, pero es que el alcance de la inteligencia artificial ha hecho que desde hace tiempo se diferencie también entre las llamadas inteligencias artificiales fuertes, generales y débiles.

5. Distintos niveles de inteligencia artificial [arriba] 

Se enuncia entonces que los logros y avances en los campos de la IA han hecho que esa definición sea especialmente confusa y que pocas personas puedan estar 100% seguros de ella.

Lo antes mencionado ha hecho que aparezcan tres grandes categorías para clasificar la IA, según su alcance y su ámbito de aplicación:

A. Inteligencia artificial débil o estrecha

Este tipo de sistemas algorítmicos son capaces de resolver problemas muy bien definidos y acotados. La IA débil es la que ha provocado la verdadera explosión de esta disciplina en los últimos tiempos: se han aplicado distintas técnicas como para lograr resolver problemas específicos y los resultados han sido excepcionales.

Los logros alcanzados con Deep Blue de IBM son un ejemplo perfecto de inteligencia artificial débil: estos desarrollos se dedican a resolver un problema concreto y delimitado, y permiten ser resueltos de forma que esos sistemas acaban realizando esas tareas mucho mejor que un ser humano.

Actualmente las IA débiles son las que podemos encontrar en más ámbitos y tareas y son los desarrollos de IA que más popularidad han logrado en los últimos tiempos porque han demostrado cómo es posible programar una máquina y entrenarla para resolver todo tipo de tareas.

Los asistentes de voz son un buen ejemplo de esos casos de débil, asistentes virtuales[23], incluso esos chatbots que se incluyen en los videojuegos y que juegan contra nosotros para plantearnos un reto con el que nos sintamos motivados y disfrutemos. La aplicación de este tipo de sistemas es extensa y de hecho todos los desarrollos prácticos completados hasta la fecha podrían englobarse dentro de esas inteligencias artificiales débiles. Están bien delimitadas y resuelven ciertos problemas de forma ejemplar, pero no son capaces de adaptarse a su entorno y lo importante aquí es dejar claro que la inteligencia artificial resuelve problemas muy concretos y delimitados. Fuera de esos límites nos encontramos ante un enorme vacío, por ejemplo, no pueden realizar el Test de Turing porque su ámbito era muy concreto.

Dentro de esta IA se puede incluir al Machine Learning, su uso más básico es la práctica de usar algoritmos para almacenar datos, aprender de ellos y luego ser capaces de hacer una predicción o sugerencia sobre algo. Los programadores deben perfeccionar algoritmos que especifiquen un conjunto de variables para ser lo más precisos posibles en una tarea en concreto. La máquina es entrenada utilizando una gran cantidad de datos dando la oportunidad a los algoritmos a ser perfeccionados.

Por definición deep learning es un subconjunto dentro del campo del machine learning, el cual predica con la idea del aprendizaje desde el ejemplo.

En deep learning, en lugar de enseñarle a ordenador una lista enorme de reglas para solventar un problema, se le da un modelo que pueda evaluar ejemplos y una pequeña colección de instrucciones para modificar el modelo cuando se produzcan errores. Con el tiempo se espera que esos modelos sean capaces de solucionar el problema de forma extremadamente precisa, gracias a que el sistema es capaz de extraer patrones.

Aunque existen distintas técnicas para implementar deep learning, una de las más comunes es simular un sistema de redes artificiales de neuronas dentro del software de análisis de datos.

La red artificial de neuronas está compuesta por distintas capas, conexiones y una dirección en la que se propaga los datos atravesando cada capa con una tarea en concreto de análisis.

Se trata de proporcionar la suficiente cantidad de datos a las capas de neuronas para que puedan reconocer patrones, clasificarlos y categorizar. Una de las grandes ventajas es trabajar a partir de datos no etiquetado y analizar sus patrones de comportamiento y ocurrencia.

El machine learning —o también llamado aprendizaje automático— está en pleno auge gracias a su aplicación en internet y del big data. Dentro de esta corriente, en los últimos años fue adquiriendo mayor relevancia el aprendizaje profundo o deep learning, Según el que es posible programar un sistema de forma tal que al brindarle un modelo particular puede extraer patrones, evaluar ejemplos y, de esta manera, a través de una determinada cantidad de instrucciones, adquirir la capacidad de realizar modificaciones cuando se produzcan anomalías en el mismo.

Una de las técnicas implementadas en el deep learning simula las características del sistema nervioso humano, es decir, un sistema de redes artificiales de neuronas (o redes neuronales) dentro de un software de análisis de datos que imita al pensamiento humano. Esta red artificial de neuronas está compuesta por distintas capas y conexiones. Los datos se propagan atravesando cada capa con una tarea en concreto de análisis, entonces, por ejemplo, para obtener información de una imagen la misma es particionada en miles de fragmentos que cada capa de neuronas analiza de manera particular: colores, formas, rasgos, etc. Así, de cada análisis, se obtiene un dato específico que recopila la capa final y ofrece un resultado.

B. Inteligencia artificial general

La inteligencia artificial general es la que permitiría resolver cualquier tarea intelectual resoluble por un ser humano. Esta inteligencia artificial sería multitarea y podría hacer cientos o miles de cosas distintas bien.

Esta inteligencia artificial general no sería una especie de gran unión de inteligencias artificiales débiles, cada una para resolver un problema: dicha inteligencia artificial general sería capaz de realizar juicios y razonar ante una situación de incertidumbre además de comunicarse en lenguaje natural, planificar o aprender.

La inteligencia artificial general superaría sin problemas tanto el Test de Turing como el de Winograd[24], por ejemplo, que como hemos comentado demostrarían que la máquina poseería esa capacidad, pero en realidad dicho logro sería tan solo parte de la capacidad de esa inteligencia artificial general.

C. Inteligencia artificial fuerte

La inteligencia artificial fuerte posee los llamados "estados mentales" y, además, es consciente de sí misma. La IA fuerte la menciona por primera vez por John Searle en su artículo “Minds, Brains and Programs” del año 1980. Según este en la IA existen dos posturas a que lidian precisamente con el rol de la computadora o máquina en la comprensión de la mente. La primera, catalogada como inteligencia artificial débil, considera a la IA como una “herramienta” que nos permite acceder a los procesos mentales a través de la simulación o implementación de estos últimos. Por otro lado, la IA fuerte plantea que al modelar una mente se está, efectivamente, creando una nueva mente. Es decir, una IA que modela un proceso mental no es un modelo, sino más bien, una mente como tal.

Es la IA de la que tanto trata el cine como por ejemplo en películas como Blade Runner[25] y en los videojuegos como Detroit Become Human[26].

6. La inteligencia artificial en el mundo [arriba] 

La tecnología puede borrar los límites entre la inteligencia humana y la de un sistema algorítmico, poniendo en peligro las cuestiones éticas que antes parecían imposibles en este ámbito. Actualmente, líderes mundiales y personas alrededor del mundo consideran que la carrera armamentista está siendo reemplazada por la carrera de la IA.

Desde el campo científico se están midiendo los impactos y resultados conseguidos en IA en los distintos continentes. Así, según el último ranking elaborado por SCImago Journal & Country Rank[27], portal público que analiza la información contenida en la base de datos Scopus, los países del mundo que están a la vanguardia en IA son: China, Estados Unidos de América e India; en América Latina el primer lugar es ocupado por Brasil.

China planea ser el país líder en inteligencia artificial para 2030 y ya ha realizado grandes avances en investigación y desarrollo sobre la inteligencia artificial. Las big tech[28] echan mano de esta tecnología para sus dispositivos y las universidades más prestigiosas publican estudios de nuevas aplicaciones. Sin embargo, China es el país que se está posicionando como líder en IA.

China anunció en el 2017 su plan para sobrepasar a los rivales tecnológicos y ser el líder mundial para el año 2030, una industria con ganancias de 150 mil millones dólares. El plan buscó la inversión multimillonaria a la investigación y desarrollo académico y empresarial hacia la IA.

Los Estados Unidos de América invertirá un total de 625 millones de dólares durante los próximos cinco años en centros de investigación sobre inteligencia artificial y computación cuántica. Este país invierte más de 500 millones de dólares por año en investigación sobre inteligencia artificial y busca de esa forma hacer "avanzar la competitividad" del país.

El Departamento de Energía de ese país informó que el sector privado e instituciones académicas aportarán 340 millones al proyecto, por lo que se llegará a una inversión aproximada de 1.000 millones, según resaltó el comunicado.

Los indicadores más importantes muestran que este país todavía tiene una clara ventaja con respecto a China. En concreto existen más de 1.000 empresas nacionales de IA, muchas de ellas con un gran número de patentes. Entre ellas se encuentran nombres reconocidos internacionalmente como Google, Facebook, Salesforce y Microsoft, pero también numerosas start-ups conocidas como Nuro, UiPath y Avant.

Según un estudio de la Organización Mundial de la Propiedad Intelectual (OMPI), IBM es la empresa informática que ha presentado la mayor cantidad de patentes de IA en todo el mundo, con 8.290. En segundo lugar, a nivel mundial, se encuentra el gigante de software Microsoft con 5.930 inventos.

Además se debe tener en cuenta que, para poder funcionar, el software de IA debe ser capaz de analizar grandes cantidades de datos en un periodo de tiempo muy corto y, por tanto, requiere de un hardware muy potente. También en este caso Estados Unidos sigue siendo líder con empresas como Nvidia[29] e Intel[30] que fabrican procesadores rápidos y tecnología de almacenamiento.

7. IA y derecho en Argentina [arriba] 

La República Argentina en vista del escenario mundial y en cuanto a proyectos, inversiones y planificación en lo que a IA refiere creó el Plan Nacional de Inteligencia Artificial: ARGENIA.

Este plan establece la necesidad de una estrategia nacional para impulsar el desarrollo de la IA en nuestro país en base a dos iniciativas: la Agenda Digital Argentina 2030 y la Estrategia Nacional de Ciencia, Tecnología e Innovación (CTI) Argentina Innovadora 2030. Todo ello en miras de posicionarse como líder regional de IA para el año 2030.

ARGENIA tiene como objetivos maximizar el potencial impacto económico y de crecimiento del país, impulsar el desarrollo de una IA inclusiva y sustentable para generar una mejor calidad de vida de las personas, minimizar los riesgos que pueda traer la implementación de dicha IA, favorecer el desarrollo del talento asociado con la IA y promover a nivel federal la implementación de la IA.

Más allá del Plan Nacional de IA, en Argentina hay grandes proyectos en materia de IA y el derecho, que se desarrollarán a continuación.

A. Prometea. Ministerio Público Fiscal de la Ciudad Autónoma de Buenos Aires y Universidad de Buenos Aires (Facultad de Derecho de la UBA)

Prometea[31] es una inteligencia artificial argentina desarrollada en conjunto por el Ministerio Público Fiscal de la Ciudad Autónoma de Buenos Aires y la Facultad de Derecho de la Universidad de Buenos Aires, con el objetivo de agilizar la justicia y permitir un mejor uso de los recursos. Prometea es una inteligencia artificial predictiva que combina reconocimiento de lenguaje natural, automatización y predicción, bajo la técnica de aprendizaje automático supervisado. Funciona a partir de una pantalla integrada, elimina clics y la apertura de múltiples ventanas.

En su faceta predictiva logra obtener la solución aplicable a un caso en menos de 20 segundos, a partir de ingresar solamente el número de caso a resolver. Esta tarea la lleva a cabo a partir de la lectura y el reconocimiento de patrones de las decisiones judiciales de las anteriores instancias que se encuentran disponibles en la web.

Algunos de los logros de Prometea en el marco del trabajo conjunto del Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la Universidad de Buenos Aires y el Ministerio Público Fiscal de la Ciudad son los que se enumeran a continuación.

- Experiencia Prometea en la justicia

- Predice la solución de un caso judicial en menos de 20 segundos, con una tasa de acierto del 96%. En solo 45 días elabora 1.000 dictámenes jurídicos en expedientes relativos al derecho a la vivienda. Sin Prometea el tiempo empleado para la obtención de estos resultados es de 174 días.

- En materia contravencional, el sistema se encuentra en desarrollo para ser aplicado a los casos por conducción en estado de ebriedad. Ya se ha realizado una primera prueba de concepto con grandes resultados. Si se implementara el sistema en estas investigaciones, se podrían generar 1.000 resoluciones de suspensión de juicio a prueba en 26 días de trabajo, lo que manualmente se realiza en 110 días.

- En el caso de los expedientes de ejecuciones fiscales, con el sistema de gestión utilizado en lote, actualmente se pueden realizar 255 sentencias de trance y remate en un mes. Con Prometea, de acuerdo a las estimaciones, se podrían realizar 1.440 en el mismo período.

- En la Corte Interamericana de Derechos Humanos, Prometea fue entrenada como un asistente virtual para la creación de resoluciones y notificaciones en distintos idiomas, y como herramienta de búsqueda avanzada.

- La Corte Constitucional de Colombia recibe miles de expedientes al año. Con intervención humana, Prometea fue capaz de leer, analizar, detectar y sugerir casos prioritarios sobre derecho a la salud en menos de 2 minutos. A una persona le hubiera llevado 96 días hábiles de trabajo, todo a partir de la técnica “aprendizaje automático supervisado”.

- Experiencia Prometea en la Administración Pública

- En el Registro Civil y Capacidad de las Personas de la Ciudad de Buenos Aires, las 6.000 rectificatorias de partidas administrativas que aproximadamente ingresan en un año, se realizan en 2 meses con Prometea. Antes se demoraba 8 meses.

- En el ámbito de contrataciones públicas permite realizar un pliego de bases y condiciones particulares en segundos e incorpora una herramienta de control de precios públicos y privados sobre los bienes a adquirir. El resultado es que con Prometea se puede confeccionar un pliego en tan solo 1 minuto, mientras que manualmente la redacción del documento ocupa 2 horas.

- Por último, cabe destacar que en todos los casos Prometea reduce la cantidad de errores de tipeo en un 99% y que permite hacer un control exhaustivo de aspectos formales de los documentos involucrados.

B. Experticia. Suprema Corte de Justicia de la provincia de Buenos Aires y Universidad Nacional de La Matanza (UNLAM)

Por otro lado, tenemos el trabajo en conjunto entre la SCBA y la Universidad de la Matanza, el cual se denomina Experticia. El texto del Acta de Implementación Específica N.º 1, en el ámbito del Convenio Marco de Colaboración Recíproca con la Universidad Nacional de La Matanza, aprobado por Resolución SC Nº 855/19[32].

El acta referida tiene como objeto el desarrollo de un aplicativo informático denominado Experticia, el cual funcionará como complemento del sistema Augusta para la automatización de diferentes procesos dentro del expediente judicial.

Estas dos entidades aunaron esfuerzos con el objetivo de desarrollar un aplicativo informático denominado Experticia, el cual funcionará como complemento del sistema Augusta para la automatización de diferentes procesos dentro del expediente judicial, la Suprema Corte de Justicia de la provincia de Buenos Aires firmó un convenio con la Universidad Nacional de La Matanza. Este convenio apunta a “la formación y perfeccionamiento de recursos humanos constante y el intercambio de información científica y técnica”.

El acuerdo detalla: “Experticia funcionará como complemento del sistema Augusta para la automatización de diferentes procesos dentro del expediente judicial basado en la confección de árboles binarios, los cuales recibirán como parámetros de entrada referencias almacenadas en el sistema Augusta y entregarán como resultado uno o más trámites con los documentos electrónicos correspondientes, permitiendo automatizar el proceso de decisión en función del estado y datos del expediente electrónico”.

Para ello, tanto la Suprema Corte como la Universidad “intercambiarán entre sí todo tipo de datos, observaciones, memorias, publicaciones y toda otra documentación” que pudiera estar relacionada con el desarrollo del software. Además, las partes se comprometen a no revelar el contenido sin la expresa autorización de la otra parte.

El acuerdo, que tiene duración de dos años, establece que el resultado del trabajo será propiedad intelectual de la Suprema Corte, reservando a la Universidad el derecho de difundir y publicar los logros con fines docentes o de investigación.

Respecto de las personas involucradas en el desarrollo del proyecto, no podrán hacer uso por sí mismos de los elementos ni darlos a conocer. Sólo podrán usarlos en los casos que sean invocados como antecedentes de su actividad o en congresos y otros eventos académicos y/o científicos.

En la actualidad, Experticia funciona a modo de prueba piloto en el juzgado de Ejecución Penal N° 2 de Morón, a cargo de Laura Conti, para estandarizar procesos de trámites simples y cotidianos que no requieren mayor complejidad y, de esta manera, reducir tiempo en la producción y minimizando errores.

8. La inteligencia artificial, el big data y el derecho [arriba] 

Se dice que la IA y sobre todo los asistentes virtuales que aparecieron hace ya 50 años y que se mencionaron en apartados anteriores pueden traer conflictos con la ética y por consiguiente con el derecho. Las primeras conversaciones con una IA fueron con Eliza (primer chatbot de la historia) y datan del año 1966. Eliza fue un programa informático pionero capaz de procesar el lenguaje natural empleando oraciones que previamente se habían recogido en su base de datos, como frases hechas, frases de confort y de continuidad para invitar al interlocutor a que siguiera con su conversación, y frases para generar empatía. Este tipo de oraciones se intercalaban con el análisis de las palabras clave que utilizaban los usuarios al expresarse.

Posteriormente, en la década de 1980, se continuaron desarrollando sencillos chatbots basados en el lenguaje de programación Python, pero no fue hasta la década de 1990 cuando empezaron a despuntar los chatbots como A.L.I.C.E. (Artificial Linguistic Internet Computer Entity), un programa inteligente de conversación desarrollado en 1995 que simulaba una charla real con los usuarios.

En la actualidad los bots conversacionales son mucho más complejos y utilizan potentes algoritmos para el procesado del lenguaje natural, con el fin de ofrecer respuestas mucho más precisas y aproximadas a lo que busca una persona.

Por su parte, el análisis de datos también existe desde hace tiempo y no supone una novedad en sí mismo. Sin embargo, la aparición de nuevas tecnologías y sobre todo la revolución de las TIC, del internet y de la utilización masiva de este a través de computadoras y celulares, y los programas de software con capacidad de almacenar, procesar y analizar una gran cantidad de datos estructurados y no estructurados (es decir, la irrupción del big data) ha abierto las puertas a casos de uso basados en IA.

El big data[33] o datos masivos (aunque en español también se utiliza esta expresión inglesa) se utiliza para referirse al proceso de recolección de datos en grandes cantidades producto de la era digital, la expansión de internet y el almacenamiento en la nube, cuyo análisis se efectúa por medios no tradicionales.

La expresión big data se debe al trabajo de Schönberger y Cukier[34]. En cambio, el Parlamento Europeo desde su origen hace referencia a macrodatos y no tanto a datos masivos.

A medida que aumenta el uso y el potencial del big data, crece el debate sobre la ética de los datos. La ética de la IA es una cuestión que está ahora en una fase incipiente de desarrollo y tendrá que afrontar importantes desafíos.

El big data atraviesa y se proyecta en los sectores públicos y privados al ámbito empresarial, en este último pudiendo recopilar datos del consumo, el comercio, los gustos, políticas, ideas, etc., llegando a decirse que estos se asimilan al petróleo del siglo xxi.

El big data y la IA pueden generar patrones dinámicos de tendencias de futuro: la predictibilidad y el apoyo en la toma de decisiones, conocer mejor al cliente y el mercado, personalizar los productos y servicios, mejorar y agilizar la toma de decisiones, o prever el comportamiento[35], por lo que actualmente se consideran un recurso valiosísimo.

Todo esto que se expone en este artículo, en constante desarrollo, hace necesario la implementación de códigos, normas de conducta, etc. Teniéndose en cuenta no solo el papel del big data, sino que también el de la IA en la generación y creación de proyectos que versen alrededor de normas.

Tal como se vienen trabajando en los proyectos pioneros en la materia, los puntos de partida deben versar sobre principios comunes en derechos humanos y democráticos de las repúblicas modernas.

El big data tal como se puede ver, puede afectar derechos de las personas de manera individual o de manera colectiva, así como también puede afectar derechos de personas de manera nacional e internacional. Sumándole la irrupción de los algoritmos, lleva a tratar el siguiente tema: la protección de datos personales.

El big data y la IA, entonces, entran en conflicto con la privacidad de las personas y, en concreto, desde el derecho de protección de datos personales, como en nuestra Ley de Protección de Datos Personales Argentina N.° 25.326[36] con ya dos décadas de andar o la nueva ley de protección de datos personales de la Unión Europea: GDPR.[37].

Argentina tiene un largo camino por recorrer debido a la longevidad de la Ley 25.326, que hace necesario actualizar, enriquecer, fortalecer la cooperación y armonizar en materia de datos personales tal como se realizó en la Unión Europea.

9. Ética en la inteligencia artificial [arriba] 

Las TIC hoy en día influencian las vías tradicionales de comercio y contratación. Internet y los medios digitales han introducido nuevas medidas de intercambio de bienes y servicios que se ofrecen en varios niveles a través de Internet.

Uno de los padres de la inteligencia artificial, Marvin Lee Minsky, estaba convencido de que la IA salvaría a la humanidad. Pero también profetizó en 1970: "Cuando los ordenadores tomen el control, quizá ya no lo podamos volver a recuperar”.

Más allá de planteamientos filosóficos, todas las personas son capaces de ver este tipo de cuestiones atendiendo a criterios puramente éticos. En ambos casos, valorando la situación cuantitativamente, algunos lineamientos filosóficos plantean lógico matar a una persona para salvar a cinco. Por lo tanto, es muy complicado que una IA sea capaz de calibrar decisiones de este tipo. Es por ello que resulta esencial que la IA esté siempre dotada de una serie de código éticos y legales.

El summum de una IA sería lograr que una máquina posea una inteligencia de tipo general similar a la humana. Es uno de los objetivos más ambiciosos que se ha planteado la ciencia, como fue mencionado en apartado anterior, logrando así una IA del tipo fuerte. Por su dificultad es equiparable a otros grandes retos científicos, como explicar el origen de la vida o del universo, o conocer la estructura de la materia.

En 1985, Judith Jarvis Johnson puso de manifiesto en la revista The Yale Law Journal[38] algunas preguntas que llevaban rondando desde principios del siglo xx en la sociedad. Este reconocido jurista expuso la complejidad que supondría para una inteligencia artificial encontrar la solución de un dilema humano complejo.

Imaginemos que una persona conduce un coche sin frenos; ante él se bifurca el camino en dos: en el camino de la izquierda hay cinco personas, en el de la derecha solo hay una. ¿Es lícito matar a una persona para salvar a otras cinco?

La problemática planteada se está materializando en la Asociación sobre Inteligencia Artificial, creada por Elon Musk[39] y Sam Altman, en la que se invita a los principales líderes tecnológicos para poder identificar dilemas éticos y prejuicios. Su objetivo primordial es establecer unas reglas de juego, basadas en un marco de comportamiento moral, donde la IA pueda desarrollarse en representación de la humanidad.

Uno de los principales problemas al que se enfrenta la IA es este y su conflicto con la ética. Aunque esta temática parezca ajena ya que en el presente se tratará la ética en la inteligencia artificial perfilada hacia el tema de los datos y los sistemas de algoritmos, no quería dejar de tratar este tema debido a que tarde o temprano entra en conflicto con el derecho, o por lo menos a su falta de regulación existente a nivel mundial.

Pero el punto más álgido está en la IA y a medida que aumenta el uso y el potencial del big data en la que crece el debate sobre la ética de los datos que se recolectan.

Al respecto, en Estados Unidos se cuenta con el Media Lab del Instituto Tecnológico de Massachusetts (MIT)[40]. El laboratorio es un lugar donde se conciben, diseñan y crean tecnologías que faciliten a las personas la construcción de un porvenir esperanzador. Fundado hace más de tres décadas, este laboratorio se propone inventar cómo los humanos experimentamos la tecnología y cómo esta puede auxiliarnos.

En él hay grupos dedicados a la computación afectiva, a las dinámicas humanas, a la cooperación escalable, a las ciencias de la ciudad, al aprendizaje colectivo, a las máquinas sociales, al diseño ficción o al futuro de la música, por citar algunos. Recientemente se ha creado uno nuevo, dedicado a la ética.

De este programa nace el curso Ética y gobernanza de la inteligencia artificial, puesto en marcha recientemente. Su impulsor es Joichi (Joi) Ito, director del MIT Media Lab y también de este curso, que imparte junto con Jonathan Zittrain, profesor y cofundador del Centro Berkman Klein para Internet y la Sociedad de la Universidad de Harvard.

Toda esta nueva tecnología ha comenzado a extenderse al uso común sin suficiente aportación de las ciencias sociales y la sociedad en general. Muchos de estos sistemas tienen sesgos o se han construido sobre estructuras que no son suficientemente explicables o transparentes. Las personas están empezando a apreciar algunos de los problemas que esto acarrea, pero todavía no contamos con una base suficiente de ingenieros que entiendan las ciencias sociales ni de científicos sociales, abogados y reguladores que entiendan la tecnología.

10. Los códigos de ética en la IA [arriba] 

A partir de lo expuesto, se puede establecer que la ética debe estar implícita en la implementación del big data. Empezando por su recolección: por ejemplo, los datos pueden estar sesgados, o simplemente mal interpretados porque se basaron en algoritmos que resultan erróneos.

Así como también en cuanto a su recolección con fines comerciales, políticos, o en otros ámbitos deben respetar siempre las leyes de protección de datos personales como la de nuestro país, La Ley de Protección de los Datos Personales (Ley N.° 25.326)[41], o en el caso mucho más avanzado de la Unión Europea: el Reglamento General de Protección de Datos[42].

Estados Unidos hizo públicos dos informes sobre IA en octubre de2016 y sobre su efecto en la economía en diciembre de ese año. En cambio, la Universidad de Stanford publicó en septiembre de 2016 su informe sobre Inteligencia Artificial y la vida en 2030.

También, fruto de esta preocupación, el Parlamento Europeo realizó un informe en 2017 llamado Código Ético de Conducta[43] y posteriormente en diciembre de 2018 publicó el primer borrador de la Guía Ética para el uso responsable de la Inteligencia Artificial[44]. 52 expertos han analizado las problemáticas, centrándose en el ser humano y de la defensa de los derechos fundamentales.

Son estándares éticos dirigidos a los creadores de tecnología. Los principios son los siguientes:

1. Agencia humana y visión general: los sistemas de IA deben permitir sociedades equitativas apoyando la agencia humana y los derechos fundamentales y no reduciendo, limitando o engañando la autonomía humana.

2. Robustez y seguridad: la inteligencia artificial confiable requiere que los algoritmos sean lo suficientemente seguros, confiables y robustos para manejar los errores e inconsistencias durante todas las fases de los ciclos de vida de los sistemas de inteligencia artificial.

3. Privacidad y control de los datos: los ciudadanos deben tener un control completo sobre sus propios datos, mientras que los datos que giran en torno a ellos no se utilizan para perjudicarlos ni discriminarlos.

4. Transparencia: se debe garantizar la trazabilidad de los sistemas de IA.

5. Diversidad, no discriminación y equidad: los sistemas de AI deben tener en cuenta todas las habilidades y requisitos humanos, y garantizar la accesibilidad.

6. Bienestar social y ecológico: los sistemas de inteligencia artificial deben utilizarse para mejorar los cambios sociales positivos, así como la sostenibilidad y la responsabilidad ambiental.

7. Responsabilidad: los mecanismos deben implementarse para garantizar la responsabilidad y la responsabilidad de los sistemas de inteligencia artificial y sus resultados.

El informe que acompaña a las directrices también contiene una "lista de evaluación confiable de la IA que consiste en una lista de preguntas que pueden ayudar a los expertos a encontrar posibles vulnerabilidades o peligros en el software de IA.

Las listas de evaluación fueron temporales y la Unión Europea recogió los comentarios de las empresas en los subsiguientes próximos años. Un informe final sobre la utilidad de las listas de evaluación se publicó en 2020.

Es importante alcanzar un acuerdo donde se pueda conceptualizar y, sobre todo, regular las prácticas derivadas.

También se cuenta con el trabajo de la Comisión Europea para la Eficiencia de la Justicia (Cepec) en donde se adoptó el primer texto europeo que establece principios éticos relacionados con el uso de IA en los sistemas judiciales.

En 2018 en Alemania comienza a trabajar la Comisión de Ética de Datos[45].

La Comisión de Ética de Datos del Gobierno Federal (Datenethikkommission) tiene como objetivo aprovechar la experiencia científica y técnica en el desarrollo de directrices éticas para la protección de la persona, la preservación de la cohesión social y la salvaguardia y promoción de la prosperidad en la información. años. Proporciona a los principales ministerios del Gobierno Federal en esta área, el Ministerio Federal del Interior, Construcción y Comunidad y el Ministerio Federal de Justicia y Protección al Consumidor, recomendaciones de acción y sugerencias para una posible legislación.

En el ámbito privado, Alphabet, Inc. —que es una empresa multinacional estadounidense cuya principal filial es Google— dictó en 2018 un código de ética en la IA: son siete puntos en los que se prohíbe, por ejemplo, el desarrollo de armas autónomas. Esos puntos son para beneficiar a la sociedad, evitar el sesgo de los algoritmos, respetar la privacidad, ser probado por seguridad, rendir cuentas públicamente, mantener el rigor científico, estar disponible para otros de acuerdo con los mismos principios.

Google no permite conforme a este código de ética que su IA sea usada para desarrollar cualquier cosa que provoque daño, incluyendo “armas u otras tecnologías cuyo propósito principal o su implementación es causar o facilitar directamente lesiones a personas”. Google prohibirá el desarrollo de tecnología de vigilancia que violará normas internacionalmente aceptadas sobre derechos humanos, o cualquier tecnología que contraviniera leyes internacionales.

El 19 de febrero del 2020, se presenta El libro blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza por parte de la Unión europea y la comisión de la Unión. Junto con este documento se presentaron también una comunicación de la comisión sobre la estrategia europea en materia de datos y el informe sobre implicaciones en materia de seguridad y responsabilidad.

La Estrategia Europea de Datos, que acompaña al libro blanco, tiene por objeto ayudar a los integrantes de la Unión Europea a convertirse en la economía con agilidad en el manejo de los datos más atractiva, segura y dinámica del mundo, lo que fortalecerá a Europa con información para reforzar sus decisiones y mejorar las vidas de todos sus ciudadanos. La Estrategia establece varias medidas políticas, como la movilización de inversiones públicas y privadas, necesarias para alcanzar este objetivo. Finalmente, en el informe de la comisión adjunto al Libro Blanco, cuya finalidad del mismo es formular alternativas políticas para alcanzar estos objetivos y convertirse así “en líder mundial de la innovación en la economía de los datos y sus aplicaciones”. Esto lo busca conseguir a través de dos bloques: el desarrollo de un “ecosistema de excelencia” y el desarrollo de un “ecosistema de confianza”.

El Vaticano, el papa Francisco y empresas tecnológicas como Microsoft e IBM firmaron una “carta ética” sobre IA que fue también ratificada por la Oficina de las Naciones Unidas para la Alimentación y Agricultura (FAO). Se confeccionó en el marco de un seminario “por una inteligencia artificial humanista”, organizado por la Santa Sede, bajo el título "La llamada de Roma para la ética de la Inteligencia Artificial"[46], la Pontificia Academia para la Vida del Vaticano y otras organizaciones reclamaron "poner en el debate público el eje de la protección de los derechos humanos en la era digital".

Allí se pedirá a empresas y organismos que suscriban una “carta ética” en la materia, según anticipó el presidente de la Pontificia Academia para la Vida, monseñor Vincenzo Paglia, organizador del encuentro.

Conclusiones [arriba] 

A través estas páginas se han planteado brevemente los principales beneficios, así como también desafíos y problemas que el uso de la IA genera, relacionándolo con el ámbito del derecho.

Se puede concluir que se está ante un punto de inflexión en la historia y —como no podía ser de otra manera en el derecho—este creciente impacto de las nuevas tecnologías disruptivas exige trabajar en nuevos mecanismos para garantizar los principios constitucionales, principios en materia de derechos humanos y democráticos, como se hizo y continúa haciéndose en los medios analógicos.

El derecho debe hacer frente al uso de la información digital que involucra datos personales, los que deben ser protegidos a medida que la tecnología avanza, que se mueve de manera exponencial.

Por otro lado, se puede observar a las grandes organizaciones, empresas públicas y privadas, países y organismos supranacionales centrándose en los problemas, cuestiones éticas, económicas y todos los temas que pueden surgir en materia de IA para trazar consideraciones, prácticas y marcos comunes de cara al futuro.

A lo largo de estas páginas, solo se ha podido hacer una introducción en la materia, puesto que requerirá un análisis más detallado y profundo por parte de los actores en la ópera algorítmica en la que vivimos los abogados y todos los actores del derecho 4.0.

 

 

Notas [arriba] 

[1] Miembro de la Comisión de Administración de Justicia y la Comisión de Derecho Informático del CALZ; miembro de la Comisión de Administración de Justicia y la Comisión de Derecho Informático del COLPROBA; miembro de la Comisión de incumbencias profesionales y situación ocupacional de FACA; miembro de la comisión de Informática jurídica inteligencia artificial de la FACA; docente de la UNLZ. Doctorando en Derecho UCES.
[2] Por ejemplo, Google en Gmail usa la inteligencia artificial (IA) a través de Smart Compose que sirve a la hora de redactar un correo electrónico y predecir lo que estos quieran poner antes de que lleguen a hacerlo en base al contexto. Y Outlook muestra los correos más importantes a través de la IA.
[3] El gobierno de Alemania estableció en el año 2018 la “Comisión de Ética de Datos”, esta publico una opinión sobre la ética de los datos que cubre tanto los datos como los sistemas algorítmicos. Esta opinión es previsora y tiene en cuenta muchos aspectos, especialmente en relación con la IA, que no están regulados aun hoy en día.
[4] La Comisión de Ética de Datos del Gobierno Federal (Datenethikkommission) tiene como tarea aprovechar la experiencia científica y técnica en el desarrollo de directrices éticas para la protección de las personas, la preservación de la cohesión social y la salvaguardia y promoción de la prosperidad en la información. Para más información: https://www.bmi.bund.de/EN/topics/it-internet-policy/data-ethics-commission/data-ethics-commission-node.html
[5] Comisión de Inteligencia Artificial de la Unión Europea, para más información: https://e c.europa.eu/digital-sing le-market/e n/high-level-expe rt-group-artif icial-inte lligence
[6] Para más información: https://ec.europa.eu/ digital-single- market/en/n ews/draft-ethic s-guidelines-tr ustworthy-ai
[7] El libro Blanco de la IA fue elaborado por una comisión sobre inteligencia artificial de la Unión Europea. Busca un enfoque europeo coordinado en torno a las implicaciones éticas y humanas de la inteligencia artificial basado en la regulación y en la inversión, y dirigido a asegurar un ecosistema de excelencia y un ecosistema de confianza. Para más información: https://ec.europ a.eu/info/sites/info /files/commission-whi te-paper-a rtificial-intelligen ce-feb 2020_es.pdf
[8] Andrew Ng comenzó a destacar como experto en inteligencia artificial en la Universidad de Stanford, donde se convirtió en profesor asociado en Aprendizaje Automático. Aquella labor le sirvió para fichar por Google, donde aplicó esta disciplina y también el Aprendizaje Profundo (Deep learning) en diversas plataformas desarrolladas por la empresa de Mountain View. Como si fuera poco, fue también principal responsable del desarrollo de ROS (Robot Operating System) una plataforma software Open Source para el impulso de la robótica.
[9] Alan Turing, matemático de origen británico, fue el padre teórico del ordenador y el precursor de la inteligencia artificial. Él fue quien diseñó el primer programa de ajedrez por computadora.
[10] El test de Turing es un examen de la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de este. Alan Turing propuso que un humano evaluara conversaciones en lenguaje natural entre un humano y una máquina diseñada para generar respuestas similares a las de un humano. El evaluador sabría que uno de los participantes de la conversación es una máquina y los intervinientes serían separados unos de otros. La conversación estaría limitada a un medio únicamente textual como un teclado de computadora y un monitor por lo que sería irrelevante la capacidad de la máquina de transformar texto en habla. En el caso de que el evaluador no pueda distinguir entre el humano y la máquina acertadamente la máquina habría pasado la prueba.
[11] John McCarthy, también conocido como Tío John McCarthy, fue un prominente informático que recibió el Premio Turing en 1971 por sus importantes contribuciones en el campo de la inteligencia artificial. De hecho, fue el responsable de introducir el término “inteligencia artificial”, concepto que acuñó en la Conferencia de Dartmouth en 1956. También se le atribuye el concepto de cloud computing.
[12] Benítez, Escudero, Kanaan, & Masip Rodó, 2013, 13.
[13] Enigma era el nombre de una máquina de rotores la empresa alemana Scherbius & Ritter que permitía usarla tanto para cifrar como para descifrar mensajes.
[14] Los bot de charla, chatbot o bot conversacional, son programas de software que simulan mantener una conversación con una persona al proveer respuestas automáticas, las cuales son previamente establecidas.
[15] En la historia de la inteligencia artificial, un ”invierno IA” es un período de reducción de fondos e interés en la investigación de inteligencia artificial. El termino apareció por primera vez en 1984 como el tema central de un debate público en la conferencia anual de la AAAI. Es una reacción en cadena que comienza con el pesimismo de la comunidad de IA, seguido por el pesimismo en la prensa, seguido de un severo recorte en la financiación, seguido por el final de la investigación seria.
[16] What Computers Can't Do: The Limits of Artificial Intelligence
[17] La quinta generación de computadoras fue un proyecto elaborado por Japón. Su objetivo era la creación de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial.
[18] Deep Blue fue una supercomputadora desarrollada por IBM para poder jugar al ajedrez. Fue la primera que venció a un campeón del mundo vigente, Gary Kaspárov, con un ritmo de juego lento el 10 de febrero de 1996. Kaspárov ganó 3 y empató 2 de las siguientes partidas, derrotando a Deep Blue por 4-2. El encuentro concluyó el 17 de febrero de 1996. Una nueva versión, llamada Deeper Blue jugó nuevamente contra Kaspárov en mayo de 1997, ganando el encuentro a 6 partidas por 3½-2½, lo que lo convirtió en la primera computadora en derrotar a un campeón del mundo vigente, en un encuentro con ritmo de juego de torneo estándar.
[19] Google Voice Search es un producto que permite a los usuarios usar el servicio de Google a través de voz en el smartphone o computadora.
[20] El procesamiento del lenguaje natural, es un campo de las ciencias de la computación, de la inteligencia artificial y de la lingüística que estudia las interacciones entre las computadoras y el lenguaje humano.
[21] Jara Miguel L. Incumbencias y nuevas tecnologías. La Ley. Bs. As. 2019. Cita en línea: AR/DOC/3920/2019
[22] Baidu es un motor de búsqueda en idioma chino fundado a finales de 1999 por Robin Li y Eric Xu. Su diseño es similar al de Google e incluye la posibilidad de búsqueda de noticias, imágenes y canciones, entre otras funciones.
[23] Como por ejemplo Asistente de Google de Google, Siri de Apple, Alexa de Amazon o Bixby de Samsung.
[24]La prueba de esquemas de Winograd también Test de esquemas de Winograd, es una prueba de inteligencia artificial propuesta por Hector Levesque, científico computacional de la Universidad de Toronto, en 2014. Esta prueba fue diseñada como una mejora al Test de Turing y consiste en un cuestionario de preguntas con múltiples respuestas provenientes de los esquemas ideados por Terry Winograd, también científico computacional, de la Universidad de Stanford. A primera vista, las preguntas de los esquemas de Winograd parecen requerir, simplemente, de la resolución de anáforas; de esta manera, la máquina debe identificar el antecedente de un pronombre ambiguo en una declaración. Esto lo hace una tarea de procesamiento de lenguaje natural, pero Levesque asegura que para resolver los esquemas de Winograd hace falta, también, emplear conocimiento y sentido común.
[25] Blade Runner es una película neo-noir y de ciencia ficción estadounidense dirigida por Ridley Scott, estrenada en 1982. Fue escrita por Hampton Fancher y David Webb Peoples, y el reparto se compone de Harrison Ford, Rutger Hauer, Sean Young, Edward James Olmos, M. Emmet Walsh, Daryl Hannah, William Sanderson, Brion James, Joe Turkel y Joanna Cassidy. Está basada parcialmente en la novela de Philip K. Dick ¿Sueñan los androides con ovejas eléctricas? (1968).
[26] Detroit: Become Human es un videojuego de aventura gráfica, desarrollado por Quantic Dream y publicado por Sony Interactive Entertainment. La fecha de lanzamiento para PlayStation 4 fue el 25 de mayo de 2018, mientras que en PC fue lanzado el 12 de diciembre de 2019. El argumento del videojuego se sitúa en un mundo futurista donde los androides, con auténtica apariencia humana, comienzan a desarrollar sentimientos y emociones humanas, lo que deriva en un problema para los humanos.
[27] Para más información: https://www.scimagojr.com/
[28] Big techs también conocidos como los tech giants o coloquialmente The Four Horsemen o Big Five son las empresas más grandes y con mayor dominio en la industria de las TIC, especialmente Amazon, Apple, Alphabet, Facebook y Microsoft. Desde finales de la década de 2010 estas cinco han sido, además de Saudi Aramco, las empresas públicas más valiosas a nivel mundial, y cada una ha tenido una capitalización de mercado máxima que oscila entre $500 mil millones y alrededor de $ 2 billones de dólares en varios momentos.
[29] Nvidia Corporation es una empresa multinacional especializada en el desarrollo de unidades de procesamiento gráfico y tecnologías de circuitos integrados para estaciones de trabajo, computadoras y dispositivos móviles.
[30] Intel Corporation es el mayor fabricante de circuitos integrados del mundo según su cifra de negocio anual.  La compañía estadounidense es la creadora de la serie de procesadores x86, los procesadores más comúnmente encontrados en la mayoría de las computadoras personales.
[31] Para más información acceder a: https://ialab.com.ar/j usticia-min isterio-publico-fiscal- de-la-ciudad-de-bu enos-aires/
[32] Para más información: http://www.scba.gov.ar/institucional/nota.asp?expre=Convenio%20 de%20colaboraci%F3n %20tecnol%F3gica%2 0con%20la%20U niversidad%20Naciona l%20de%20La%20 Matanza.&veradjuntos=n o
[33] Big data, macrodatos o datos masivos es un concepto que hace referencia al almacenamiento de grandes cantidades de datos y a los procedimientos usados para encontrar patrones repetitivos dentro de esos datos.
[34] Big data: la revolución de los datos masivos. Front Cover · Viktor Mayer-Schönberger, Kenneth Cukier. Turner, 2013.
[35] Agencia Española de Protección de Datos [AEPD] e ISMS Forum, 2017, pp. 6-7.
[36] La Ley N.° 25.326 de Protección de Datos Personales Argentina, el decreto regulatorio 1558/2001 y otras disposiciones publicadas por la Dirección Nacional de Protección de Datos Personales componen el marco legal vigente en cuanto a la normativa de protección de datos en la República Argentina.
[37] GDPR por sus siglas en inglés: General Data Protection Regulation, o RGPD por sus siglas en español: Reglamento General de Protección de Datos es la nueva legislación de la Unión Europea que regula la protección de los datos de los ciudadanos que vivan en ella.
[38] Yale Law Journal es una prestigiosa revista de leyes administrada por los estudiantes de la Facultad de Derecho de la Universidad Yale. Se ha publicado desde 1891 y es una de las publicaciones sobre leyes más citadas en su país.
[39] Elon Reeve Musk es un físico, emprendedor, inventor y magnate sudafricano, nacionalizado canadiense y estadounidense. Cofundador de PayPal, SpaceX, Hyperloop, SolarCity, The Boring Company, Neuralink y OpenAI. Es director general de SpaceX, Tesla Motors, presidente de SolarCity, y copresidente de OpenAI.
[40] El MIT Media Lab es un laboratorio dentro de la Escuela de Arquitectura y Planificación en el Instituto de Tecnología de Massachusetts. Fundado en 1985. Está dedicado a los proyectos de investigación en la convergencia del diseño, la multimedia y la tecnología.
[41] La Ley de Protección de los Datos Personales en Argentina regula los datos asentados en archivos, registros y bases de datos para garantizar el derecho al honor y a la intimidad de las personas.
[42] El Reglamento General de Protección de Datos es el reglamento europeo relativo a la protección de las personas físicas en lo que respecta al tratamiento de sus datos personales y a la libre circulación de estos datos.
[43] Resolución del Parlamento Europeo del 16 de febrero de 2017 con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica [2015/2103(INL)].
[44] La Guía Ética para el Uso Responsable de la Inteligencia Artificial está conformada por siete puntos básicos, en los que se destaca la protección de los datos de los usuarios, así como el respeto a la autonomía humana y los derechos de los ciudadanos europeos; transparencia y responsabilidad y, por supuesto, sistemas imparciales y que tomen en cuenta la diversidad humana.
[45] La Comisión de Ética de Datos comenzó su trabajo el 4 de septiembre de 2018, la cual proporciona al gobierno y al Parlamento Alemán un marco sobre cómo desarrollar una política de datos y abordar los algoritmos, la inteligencia artificial y la innovación digital.
[46] “Rome Call for AI Ethics” (Llamada de Roma para la ética de la inteligencia artificial) pone el foco en el respeto de la privacidad, la confianza, la transparencia y las necesidades de los seres humanos.



© Copyright: Facultad de Derecho de la Universidad Nacional de Lomas de Zamora