Puntos clave
-
Uno de los aspectos de la inteligencia artificial (IA) que dificulta su regulación es la opacidad algorítmica , o la posible falta de comprensión de cómo exactamente un algoritmo puede usar, recopilar o alterar datos o tomar decisiones basadas en esos datos.
-
Las posibles soluciones regulatorias incluyen (1) minimizar los datos que las empresas pueden recopilar y utilizar y (2) exigir auditorías y divulgaciones sobre el uso de IA.
-
Una cuestión clave es encontrar el equilibrio adecuado entre regulación e innovación. Centrarse en los datos utilizados en la IA, los propósitos de su uso y los resultados de su uso puede aliviar potencialmente esta preocupación.
La Ley de Inteligencia Artificial (IA) de la Unión Europea (UE) es una pieza legislativa histórica que establece un marco detallado y de amplio alcance para la regulación integral de la implementación de la IA en la Unión Europea que abarca el desarrollo, la prueba y el uso de la IA. [1] Este es uno de varios informes destinados a servir como instantáneas sucintas de una variedad de temas interconectados que son centrales para los debates sobre la gobernanza de la IA en los Estados Unidos, en la Unión Europea y en todo el mundo. Este informe, que se centra en los impactos de la IA en la ley de privacidad, no tiene como objetivo proporcionar un análisis exhaustivo, sino más bien generar un diálogo entre las partes interesadas sobre facetas específicas de la gobernanza de la IA, especialmente a medida que las aplicaciones de IA proliferan en todo el mundo y persisten debates complejos sobre la gobernanza. Si bien nos abstenemos de ofrecer recomendaciones definitivas, exploramos un conjunto de opciones prioritarias que Estados Unidos podría considerar en relación con diferentes aspectos de la gobernanza de la IA a la luz de la Ley de IA de la UE.
La IA promete marcar el comienzo de una era de rápida evolución tecnológica que podría afectar prácticamente a todos los aspectos de la sociedad, tanto de manera positiva como negativa. Las características beneficiosas de la IA requieren la recopilación, el procesamiento y la interpretación de grandes cantidades de datos, incluidos datos personales y confidenciales. Como resultado, han surgido en el discurso público cuestiones relacionadas con la protección de datos y los derechos a la privacidad.
La protección de la privacidad desempeña un papel fundamental para que las personas mantengan el control sobre su información personal y para que las agencias protejan la información confidencial de las personas y eviten el uso fraudulento y el acceso no autorizado a los datos de las personas. A pesar de esto, Estados Unidos carece de un marco reglamentario o estatutario federal integral que regule los derechos, la privacidad y la protección de los datos. Actualmente, las únicas protecciones al consumidor que existen son las leyes de privacidad específicas de cada estado y las leyes federales que ofrecen una protección limitada en contextos específicos, como la información de salud. La naturaleza fragmentada de un régimen de derechos de datos de cada estado puede dificultar excesivamente el cumplimiento y puede sofocar la innovación. [2] Por esta razón, el presidente Joe Biden pidió al Congreso que aprobara una legislación bipartidista "para proteger mejor la privacidad de los estadounidenses, incluso de los riesgos que plantea la IA". [3]
Se han hecho varios intentos de promulgar una legislación federal integral sobre privacidad, incluida la Ley de Derechos de Privacidad Estadounidense (APRA), cuyo objetivo es proteger la recopilación, la transferencia y el uso de los datos de los estadounidenses en la mayoría de las circunstancias. [4] Aunque algunas cuestiones de privacidad de datos podrían abordarse mediante la legislación, seguirían existiendo lagunas en la protección de datos debido a los atributos únicos de la IA. En este informe, identificamos esas lagunas y destacamos las posibles opciones para abordarlas.
Naturaleza del problema: preocupaciones sobre la privacidad específicas de la IA
Desde la perspectiva de la privacidad de los datos, uno de los aspectos más preocupantes de la IA es la posible falta de comprensión de cómo exactamente un algoritmo puede usar, recopilar o alterar datos o tomar decisiones basadas en esos datos. [5] Esta posible falta de comprensión se conoce como opacidad algorítmica y puede ser resultado de la complejidad inherente del algoritmo, la ocultación intencionada de una empresa que utiliza la ley de secretos comerciales para proteger su algoritmo o el uso del aprendizaje automático para construir el algoritmo, en cuyo caso, incluso los creadores del algoritmo pueden no ser capaces de predecir cómo funcionará. [6] La opacidad algorítmica puede dificultar o imposibilitar ver cómo se transforman las entradas de datos en datos o resultados de decisiones, lo que limita la capacidad de inspeccionar o regular la IA en cuestión. [7]
Existen otras preocupaciones generales sobre la privacidad que adquieren aspectos únicos relacionados con la IA o que se ven exageradas aún más por las características únicas de la IA: [8]
-
La reutilización de datos se refiere a la utilización de datos más allá de su propósito previsto y declarado y sin el conocimiento o consentimiento del titular de los datos. En un contexto de privacidad general, un ejemplo sería cuando la información de contacto recopilada para un recibo de compra se utiliza posteriormente con fines de marketing para un producto diferente. En un contexto de IA, la reutilización de datos puede ocurrir cuando los datos biográficos recopilados de una persona se introducen en un algoritmo que luego aprende de los patrones asociados con los datos de esa persona. Por ejemplo, el paquete de estímulo a raíz de la crisis financiera de 2008 incluyó fondos para la digitalización de los registros de atención médica con el fin de transferir fácilmente los datos de atención médica entre proveedores de atención médica, un beneficio para el paciente individual. [9] Sin embargo, los hospitales y las aseguradoras podrían utilizar algoritmos médicos para determinar los riesgos de salud individuales y la elegibilidad para recibir tratamiento médico, un propósito que no se pretendía originalmente. [10] Un problema particular con la privacidad de los datos en el uso de IA es que los conjuntos de datos existentes recopilados durante la última década pueden usarse y recombinarse de formas que no podrían preverse razonablemente e incorporarse a la toma de decisiones en el momento de la recopilación. [11]
-
Los derrames de datos se producen cuando se recopilan datos de personas que no estaban previstas para ser incluidas en el momento de la recopilación. Un ejemplo sería el uso de IA para analizar una fotografía tomada a una persona que dio su consentimiento y que también incluye a otras personas que no dieron su consentimiento. Otro ejemplo podrían ser los familiares de una persona que carga su perfil de datos genéticos en un agregador de datos genéticos, como 23andMe.
-
La persistencia de los datos se refiere a la existencia de datos por más tiempo del que se anticipa razonablemente en el momento de su recopilación y posiblemente más allá de la vida útil de los sujetos humanos que crearon los datos o dieron su consentimiento para su uso. Este problema se debe al hecho de que una vez que se crean los datos digitales, son difíciles de eliminar por completo, especialmente si los datos se incorporan a un algoritmo de IA y se vuelven a empaquetar o reutilizar. [12] Como los costos de almacenamiento y mantenimiento de datos se han desplomado en la última década, incluso las organizaciones más pequeñas tienen la capacidad de almacenar datos indefinidamente, lo que se suma a la aparición de problemas de persistencia de datos. [13] Esto es preocupante desde el punto de vista de la privacidad porque las preferencias de privacidad generalmente cambian con el tiempo. Por ejemplo, las personas tienden a volverse más conservadoras con sus preferencias de privacidad a medida que envejecen. [14] Con el problema de la persistencia de los datos, el consentimiento otorgado en la edad adulta temprana puede llevar a que los datos se utilicen durante y después de la vida del individuo.
Posibles opciones para abordar los riesgos de privacidad únicos de la IA
En la mayoría de las propuestas integrales de privacidad de datos, la base suele establecerse otorgando a las personas derechos fundamentales sobre sus datos y su privacidad, a partir de los cuales se desarrolla el resto del sistema. El Reglamento General de Protección de Datos (RGPD) de la UE y la Ley de Privacidad del Consumidor de California (dos regímenes integrales notables de privacidad de datos) comienzan con una garantía general de protección de los derechos fundamentales, incluidos los derechos a la privacidad, la protección de los datos personales y la no discriminación. [15] En concreto, los derechos de protección de datos incluyen el derecho a saber qué datos se han recopilado, el derecho a saber qué datos se han compartido con terceros y con quién, el derecho a que se eliminen los datos y el derecho a que se corrijan los datos incorrectos.
Antes de la proliferación de la IA, los buenos sistemas y procedimientos de gestión de datos podían hacer que el cumplimiento de estos derechos fuera alcanzable. Sin embargo, las preocupaciones sobre la privacidad de la IA mencionadas anteriormente dificultan el cumplimiento total. En concreto, la opacidad algorítmica dificulta saber cómo se utilizan los datos, por lo que resulta más difícil saber cuándo se han compartido o si se han eliminado por completo. La reutilización de datos dificulta saber cómo se han utilizado los datos y con quién se han compartido. La difusión de datos dificulta saber exactamente qué datos se han recopilado sobre un individuo en particular. Estos problemas, junto con la caída en picado del coste del almacenamiento de datos, exacerban la persistencia de los datos o el mantenimiento de los datos más allá de su uso o finalidad previstos.
Los problemas singulares asociados con la IA dan lugar a varias opciones para resolverlos o mitigarlos. A continuación, ofrecemos resúmenes de estas opciones y ejemplos de cómo se han implementado en otros regímenes regulatorios.
Minimización y limitación de datos
La minimización de datos se refiere a la práctica de limitar la recopilación de información personal a aquella que sea directamente relevante y necesaria para lograr objetivos específicos e identificados de forma precisa. [16] Esto contrasta con el enfoque que utilizan muchas empresas en la actualidad, que consiste en recopilar la mayor cantidad de información posible. Según los principios de la minimización de datos, el uso de cualquier dato estaría legalmente limitado únicamente al uso identificado en el momento de la recopilación. [17] La minimización de datos también es un principio clave de privacidad para reducir los riesgos asociados con las violaciones de la privacidad.
Varios marcos de privacidad incorporan el concepto de minimización de datos. La APRA propuesta incluye estándares de minimización de datos que impiden la recopilación, procesamiento, retención o transferencia de datos “más allá de lo que es necesario, proporcionado o limitado para proporcionar o mantener” un producto o servicio. [18] El RGPD de la UE señala que“los datos personales deben ser adecuados, pertinentes y limitados a lo que es necesario para los fines para los que se procesan”. [19] La Ley de IA de la UE también reafirma que los principios de minimización de datos y protección de datos se aplican a los sistemas de IA durante todo su ciclo de vida siempre que se procesen datos personales. [20] La Ley de IA de la UE también impone reglas estrictas sobre la recopilación y el uso de datos biométricos. Por ejemplo, prohíbe los sistemas de IA que “creen o amplíen bases de datos de reconocimiento facial mediante el raspado no selectivo de imágenes faciales de Internet o imágenes de CCTV [circuito cerrado de televisión]”. [21]
Como otro ejemplo de una forma de incorporar la minimización de datos, APRA establecería un deber de lealtad , que prohíbe a las entidades cubiertas recopilar, usar o transferir datos cubiertos más allá de lo que es razonablemente necesario para proporcionar el servicio solicitado por el individuo, a menos que el uso sea uno de los propósitos explícitamente permitidos enumerados en el proyecto de ley. [22] Entre otras cosas, el proyecto de ley requeriría que las entidades cubiertas obtengan el consentimiento expreso y afirmativo del consumidor antes de transferir sus datos cubiertos sensibles a un tercero, a menos que se aplique una excepción específica.
Evaluaciones de impacto algorítmicas para uso público
Las evaluaciones de impacto algorítmico (AIA) tienen como objetivo exigir responsabilidades a las organizaciones que implementan sistemas automatizados de toma de decisiones. [23] Las AIA contrarrestan el problema de la opacidad algorítmica al sacar a la luz los posibles daños causados por el uso de IA en la toma de decisiones y exigen que las organizaciones tomen medidas prácticas para mitigar cualquier daño identificable. [24] Una AIA exigiría la divulgación de los sistemas de decisión basados en IA propuestos y existentes, incluido su propósito, alcance e impactos potenciales en las comunidades, antes de que se implementen dichos algoritmos. [25] Cuando se aplican a organizaciones públicas, las AIA arrojan luz sobre el uso del algoritmo y ayudan a evitar una reacción política negativa con respecto a los sistemas en los que el público no confía. [26]
La APRA incluye un requisito de que los grandes titulares de datos realicen evaluaciones de impacto ambiental que sopesen los beneficios de sus prácticas de privacidad frente a las consecuencias adversas. [27] Estas evaluaciones describirían los pasos de la entidad para mitigar los posibles daños resultantes de sus algoritmos, entre otros requisitos. El proyecto de ley exige que los grandes titulares de datos presenten estas evaluaciones de impacto ambiental a la Comisión Federal de Comercio y las pongan a disposición del Congreso cuando se las solicite. De manera similar, el RGPD de la UE exige evaluaciones de impacto ambiental (PIA) para destacar los riesgos de los sistemas automatizados utilizados para evaluar a las personas en función de sus datos personales. [28] Las AIA y las PIA son similares, pero difieren sustancialmente en su alcance: mientras que las PIA se centran en los derechos y libertades de los interesados afectados por el procesamiento de sus datos personales, las AIA abordan los riesgos planteados por el uso de datos no personales. [29] La Ley de IA de la UE amplía aún más la noción de evaluación de impacto para abarcar riesgos más amplios para los derechos fundamentales no cubiertos por el RGPD. En concreto, la Ley de IA de la UE exige que los organismos regidos por el derecho público, los proveedores privados de servicios públicos (como educación, atención sanitaria, servicios sociales, vivienda y administración de justicia) y los proveedores de servicios bancarios y de seguros que utilizan sistemas de IA realicen evaluaciones del impacto en los derechos fundamentales antes de implementar sistemas de IA de alto riesgo. [30]
Auditorias algorítmicas
Mientras que la AIA evalúa el impacto, una auditoría algorítmica es "una evaluación estructurada de un sistema de IA para garantizar que se alinea con objetivos, estándares y requisitos legales predefinidos". [31] En una auditoría de este tipo, se examinan a fondo el diseño, los insumos, los resultados, los casos de uso y el rendimiento general del sistema para identificar brechas, fallas o riesgos. [32] Una auditoría algorítmica adecuada incluye objetivos de auditoría definidos y claros, como verificar el rendimiento y la precisión, así como métricas y puntos de referencia estandarizados para evaluar el rendimiento de un sistema. [33] En el contexto de la privacidad, una auditoría puede confirmar que los datos se están utilizando en el contexto del consentimiento de los sujetos y los principios de las regulaciones aplicables. [34]
Durante la etapa inicial de una auditoría, se documenta el sistema y se designan los procesos como de riesgo bajo, medio o alto, dependiendo de factores como el contexto en el que se utiliza el sistema y el tipo de datos en los que se basa. [35] Después de la documentación, se evalúa el sistema en cuanto a su eficacia, sesgo, transparencia y protección de la privacidad. [36] Luego, los resultados de la evaluación se utilizan para identificar acciones que puedan reducir los riesgos identificados. Dichas acciones pueden ser de naturaleza técnica o no técnica. [37]
Esta noción de auditoría algorítmica está incorporada en la evaluación de conformidad prevista en la Ley de IA de la UE. [38] La evaluación de conformidad es un proceso formal en el que un proveedor de un sistema de IA de alto riesgo tiene que demostrar el cumplimiento de los requisitos para dichos sistemas, incluidos los relativos a los datos y la gobernanza de los datos. En concreto, la Ley de IA de la UE exige que los conjuntos de datos de entrenamiento, validación y prueba estén sujetos a prácticas de gestión y gobernanza de datos adecuadas para el propósito previsto del sistema. En el caso de los datos personales, esas prácticas deben referirse al propósito y origen originales, así como a los procesos de recopilación de datos. [39] Una vez finalizada la evaluación, la entidad debe redactar declaraciones de conformidad de la UE por escrito para cada sistema pertinente, que deben conservarse durante diez años. [40]
Divulgaciones obligatorias
Las divulgaciones obligatorias de la IA son otra opción para abordar las preocupaciones sobre la privacidad, por ejemplo, exigiendo que la organización que emplea la tecnología divulgue al público los usos de la IA. [41] Por ejemplo, la Ley de IA de la UE exige el etiquetado de contenido generado por IA. Además, la Ley de IA de la UE exige la divulgación cuando las personas están expuestas a sistemas de IA que pueden asignarlas a grupos o inferir sus emociones o intenciones basándose en datos biométricos (a menos que el sistema esté destinado a fines de aplicación de la ley). [42] La legislación introducida en los Estados Unidos llamada Ley de Etiquetado de IA de 2023 exigiría que las empresas etiqueten y divulguen adecuadamente cuando utilicen un producto generado por IA, como un chatbot. [43] La legislación propuesta también exige que los desarrolladores de sistemas de IA generativos implementen procedimientos razonables para evitar el uso posterior de esos sistemas sin la divulgación adecuada. [44]
Consideraciones para los responsables de las políticas
Como se señaló en la sección anterior, algunas de estas opciones se han propuesto en los Estados Unidos, mientras que otras se han aplicado en otros países. Una cuestión clave es encontrar el equilibrio adecuado entre regulación e innovación. La participación de la industria y de otras partes interesadas en la regulación puede ayudar a aliviar las preocupaciones de que las regulaciones puedan frenar el desarrollo y la implementación de los beneficios que ofrece la IA. Al parecer, la Ley de IA de la UE adopta este enfoque para redactar los códigos de práctica para los modelos de IA de propósito general: se espera que la Oficina de IA de la UE invite a las partes interesadas (especialmente a los desarrolladores de modelos) a participar en la redacción de los códigos, que harán operativos muchos de los requisitos de la Ley de IA de la UE. [45] La Ley de IA de la UE también contiene disposiciones explícitas para apoyar la innovación, especialmente entre las pequeñas y medianas empresas, incluidas las empresas emergentes. [46] Por ejemplo, la ley introduce entornos de pruebas y experimentación controlados bajo una estricta supervisión regulatoria. El propósito específico de estos entornos de pruebas es fomentar la innovación en IA proporcionando marcos para desarrollar, entrenar, validar y probar sistemas de IA de una manera que garantice el cumplimiento de la Ley de IA de la UE, aliviando así la incertidumbre legal para los proveedores. [47]
La tecnología de IA es un término general que se utiliza para varios tipos de tecnología, desde la IA generativa utilizada para impulsar chatbots hasta las redes neuronales que detectan posibles fraudes en tarjetas de crédito. [48] Además, la tecnología de IA está avanzando rápidamente y seguirá cambiando drásticamente en los próximos años. Por esta razón, en lugar de centrarse en los detalles de la tecnología subyacente, los legisladores podrían considerar la posibilidad de regular los resultados de los algoritmos. Esa resiliencia regulatoria se puede lograr aplicando las reglas a los datos que se incluyen en los algoritmos, los fines para los que se utilizan esos datos y los resultados que se generan. [49]
Afiliaciones de los autores
Tifani Sadek es profesora de la Facultad de Derecho de la Universidad de Michigan. Karlyn D. Stanley es investigadora principal de políticas de RAND, Gregory Smith es analista de políticas, Krystyna Marcinek es investigadora asociada de políticas, Paul Cormarie es analista de políticas y Salil Gunashekar es director asociado de RAND Europa.
Notas
-
[1] Unión Europea, «Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas sobre inteligencia artificial y se modifican los Reglamentos (CE) n.º 300/2008, (UE) n.º 167/2013, (UE) n.º 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Ley de Inteligencia Artificial), texto pertinente a efectos del EEE», 13 de junio de 2024. En adelante citada como la Ley de IA de la UE, esta legislación fue adoptada por el Parlamento Europeo en marzo de 2024 y aprobada por el Consejo Europeo en junio de 2024. A partir de 16 de julio de 2024. Todo el texto citado en este informe relacionado con la Ley de IA de la UE se puede encontrar en https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=OJ:L_202401689#d1e5435-1-1
-
[2] Brenna Goth, "Las distintas leyes de privacidad de datos en los distintos estados aumentan los riesgos de cumplimiento", Bloomberg Law, 11 de octubre de 2023.
-
[3] Casa Blanca, "HOJA INFORMATIVA: El presidente Biden emite una orden ejecutiva sobre inteligencia artificial segura, protegida y confiable", 30 de octubre de 2023.
-
[4] Cámara de Representantes de los Estados Unidos, Ley de Derechos de Privacidad Estadounidense, Proyecto de Ley 8818, 25 de junio de 2024. A partir del 18 de julio de 2024: https://www.congress.gov/bill/118th-congress/house-bill/8818
-
[5] Jenna Burrell, "Cómo piensa la máquina: comprensión de la opacidad en los algoritmos de aprendizaje automático", Big Data & Society , vol. 3, n.º 1, junio de 2016.
-
[6] Sylvia Lu, "Privacidad de datos, derechos humanos y opacidad algorítmica", California Law Review , Vol. 110, 2022.
-
[7] Markus Langer, "Introducción de una perspectiva de múltiples partes interesadas sobre la opacidad, la transparencia y las estrategias para reducir la opacidad en la gestión de recursos humanos basada en algoritmos", Human Resource Management Review , vol. 33, n.º 1, marzo de 2023.
-
[8] Catherine Tucker, “Privacidad, algoritmos e inteligencia artificial”, en Ajay Agrawal, Joshua Gans y Avi Goldfarb, eds., The Economics of Artificial Intelligence: An Agenda , University of Chicago Press, mayo de 2019, pág. 423.
-
[9] Ley Pública 110-185, Ley de Estímulo Económico de 2008, 13 de febrero de 2008; Sara Green, Line Hillersdal, Jette Holt, Klaus Hoeyer y Sarah Wadmann, "La ética práctica de la reutilización de datos de salud: cómo reconocer el trabajo de datos invisibles y la necesidad de priorización", Medicina, atención médica y filosofía , vol. 26, n.º 1, 2023.
-
[10] Starre Vartan, "Se encontró sesgo racial en un importante algoritmo de riesgo en la atención médica", Scientific American , 24 de octubre de 2019.
-
[11] Tucker, 2019, pág. 430.
-
[12] Tucker, 2019, pág. 426.
-
[13] Stephen Pastis, "El problema del desaprendizaje de la IA: los investigadores dicen que es prácticamente imposible hacer que un modelo de IA 'olvide' las cosas que aprende de los datos privados de los usuarios", Forbes , 30 de agosto de 2023.
-
[14] Tucker, 2019, pág. 427.
-
[15] Unión Europea, Reglamento General de Protección de Datos, 25 de mayo de 2018 (en adelante, RGPD, 2018); Código Civil de California, División 3, Obligaciones; Parte 4, Obligaciones derivadas de transacciones particulares; Título 1.81.5, Ley de Privacidad del Consumidor de California de 2018. Fabienne Ufert, "Regulación de la IA a través de la lente de los derechos fundamentales: ¿Qué tan bien aborda el RGPD los desafíos planteados por la IA?" European Papers , 20 de septiembre de 2020.
-
[16] Casa Blanca, Plan para una Carta de Derechos de la IA: Hacer que los sistemas automatizados funcionen para el pueblo estadounidense , octubre de 2022, pág. 33.
-
[17] WaTech, “Minimización de datos”, página web, sin fecha. A partir del 6 de junio de 2024:https://watech.wa.gov/data-minimization
-
[18] Cámara de Representantes de Estados Unidos, 2024.
-
[19] RGPD, 2018.
-
[20] Ley de IA de la UE, considerando (69).
-
[21] Ley de IA de la UE, cap. II, artículo 5, párr. 1(e).
-
[22] Cámara de Representantes de Estados Unidos, 2024.
-
[23] Jacob Metcalf, Emanuel Moss, Elizabeth Anne Watkins, Ranjit Singh y Madeleine Clare Elish, "Evaluaciones de impacto algorítmico y rendición de cuentas: la coconstrucción de impactos", documento presentado en la Conferencia de la ACM sobre equidad, rendición de cuentas y transparencia, evento virtual, del 3 al 10 de marzo de 2021.
-
[24] Metcalf y otros, 2021.
-
[25] Dillon Reisman, Jason Schultz, Kate Crawford y Meredith Whittaker, Evaluaciones de impacto algorítmico: un marco práctico para la rendición de cuentas de las agencias públicas , AI Now Institute, abril de 2018.
-
[26] Reisman y otros, 2018.
-
[27] Cámara de Representantes de Estados Unidos, 2024.
-
[28] RGPD, 2018.
-
[29] Van Bael & Bellis, "Evaluación del impacto de los derechos fundamentales en la Ley de Inteligencia Artificial de la UE", 28 de marzo de 2024.
-
[30] Ley de IA de la UE, capítulo III, art. 3, art. 27, párr. 1 (a) – (f).
-
[31] Olga V. Mack y Emili Budell-Rhodes, "Navegando por la auditoría de IA: una guía completa de las mejores prácticas", Law.com, 20 de octubre de 2023.
-
[32] Mark Dangelo, "Auditoría de IA: el campo de batalla emergente de la transparencia y la evaluación", Thomson Reuters, 25 de octubre de 2023.
-
[33] Mack y Budell-Rhodes, 2023.
-
[34] Lynn Parker Dupree y Taryn Willett, "Buscando sinergia entre la IA y las regulaciones de privacidad", Reuters, 17 de noviembre de 2023.
-
[35] Joe Davenport, Arlie Hilliard y Ayesha Gulley, "¿Qué es la auditoría de IA?", Holistic AI, 21 de diciembre de 2022.
-
[36] Davenport, Hilliard y Gulley, 2022.
-
[37] Davenport, Hilliard y Gulley, 2022.
-
[38] Ley de IA de la UE, Cap. III, Sec. 2, y Cap. III, Sec. 5, Art. 43.
-
[39] Ley de IA de la UE, cap. III, sec. 2. Arte. 10.
-
[40] Ley de IA de la UE, cap. III, sec. 3, art. 47, párr. 1.
-
[41] Cameron F. Kerry, "Cómo la legislación sobre privacidad puede ayudar a abordar la IA", Brookings, 7 de julio de 2023.
-
[42] Ley de IA de la UE, cap. IV, art. 50, párrs. 1 a 3.
-
[43] Senado de los EE. UU., Ley de etiquetado de IA de 2023, Proyecto de ley 2691, 27 de julio de 2023.
-
[44] Matt Bracken, "Proyecto de ley bipartidista del Senado apunta a etiquetas y divulgaciones en productos de inteligencia artificial", FedScoop.com, 25 de octubre de 2023.
-
[45] Ley de IA de la UE, considerando 116.
-
[46] Ley de IA de la UE, considerando, puntos (138-139).
-
[47] Ley de IA de la UE, considerando, punto (139).
-
[48] “¿Pueden las regulaciones de IA mantenernos seguros sin sofocar la innovación?” Asociación Internacional de Profesionales de la Privacidad, 12 de julio de 2023.
-
[49] “¿Pueden las regulaciones de IA mantenernos seguros sin sofocar la innovación?” 2023.
https://www.paypal.com/donate/?hosted_button_id=CDE7T3FLMRFKQ
评论 (0)