{"id":1888,"date":"2023-06-10T13:47:48","date_gmt":"2023-06-10T16:47:48","guid":{"rendered":"http:\/\/www.estudiotrevisan.com\/wp\/?p=1888"},"modified":"2023-06-10T13:47:48","modified_gmt":"2023-06-10T16:47:48","slug":"analisis-del-actual-marco-regulatorio-para-la-ia-aplicada-a-la-salud-tendencias-en-argentina-y-en-la-ue","status":"publish","type":"post","link":"https:\/\/www.estudiotrevisan.com\/sitio\/es-ar\/analisis-del-actual-marco-regulatorio-para-la-ia-aplicada-a-la-salud-tendencias-en-argentina-y-en-la-ue\/","title":{"rendered":"An\u00e1lisis del actual marco regulatorio para la IA aplicada a la salud. Tendencias en Argentina y en la UE."},"content":{"rendered":"<p style=\"text-align: justify;\">Por Marie Olivier de Sanderval, abogada del Estudio Trevis\u00e1n Abogados.<\/p>\n<p style=\"text-align: center;\">&#8211; &#8211; &#8211; &#8211; &#8211;<\/p>\n<p style=\"text-align: center;\"><a href=\"http:\/\/www.estudiotrevisan.com\/sitio\/wp-content\/uploads\/2023\/06\/ia-decision-salud.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-1895\" alt=\"ia-decision-salud\" src=\"http:\/\/www.estudiotrevisan.com\/sitio\/wp-content\/uploads\/2023\/06\/ia-decision-salud.jpg\" width=\"780\" height=\"250\" \/><\/a><\/p>\n<p style=\"text-align: justify;\">La\u00a0inteligencia artificial (IA)\u00a0est\u00e1 revolucionando el campo de la salud al ofrecer nuevas oportunidades para mejorar el diagn\u00f3stico, tratamiento y atenci\u00f3n m\u00e9dica en general. Sin embargo, el r\u00e1pido avance de la IA tambi\u00e9n plantea desaf\u00edos regulatorios y \u00e9ticos. En respuesta a esta situaci\u00f3n, surgieron nuevos instrumentos normativos tanto a nivel internacional como local. A continuaci\u00f3n, analizaremos algunos de estos instrumentos que constituyen hitos importantes en el desarrollo de un marco regulatorio de la IA.<\/p>\n<p style=\"text-align: justify;\"><span style=\"text-decoration: underline;\">Aclaraciones preliminares<\/span>:<\/p>\n<p style=\"text-align: justify;\">&#8211;\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0Actualmente, no hay en el mundo leyes que regulen integralmente el uso de la IA. S\u00ed hay, en muchos pa\u00edses (desde Canad\u00e1 a India o incluso China) proyectos de regulaci\u00f3n integral del uso de la AI, avanzando r\u00e1pidamente en los \u00faltimos meses. El proyecto\u00a0abstracto, gen\u00e9rico y abarcativo\u00a0m\u00e1s \u201ccomentado\u201d es el\u00a0proyecto de Reglamento Europeo de Inteligencia Artificial (AI Act).<\/p>\n<p style=\"text-align: justify;\">&#8211;\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0Existen acuerdos de \u201csoft law\u201d, de car\u00e1cter no vinculante, que establecen recomendaciones de car\u00e1cter \u00e9ticos y gu\u00edas de buenas pr\u00e1cticas en el uso y desarrollo de herramientas de IA.<\/p>\n<p style=\"text-align: justify;\">&#8211;\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0Ante la ausencia legislativa ante descripta, las normativas de datos personales se usan para adoptar medidas respecto de los sistemas de IA.<\/p>\n<p style=\"text-align: justify;\">Teniendo en cuenta estas aclaraciones, presentaremos algunos acuerdos de \u201csoft law\u201d que tienen implicancias en el campo de la salud (1) y el enfoque de la Uni\u00f3n Europea con respecto a la IA (2); para luego abordar la situaci\u00f3n en Argentina (3).<\/p>\n<p style=\"text-align: justify;\"><b>1.\u00a0\u00a0\u00a0\u00a0\u00a0<\/b><b><span style=\"text-decoration: underline;\">An\u00e1lisis de unos acuerdos de \u201csoft law\u201d<\/span><\/b><\/p>\n<p style=\"text-align: justify;\"><b>1.1\u00a0\u00a0\u00a0\u00a0<\/b><b><span style=\"text-decoration: underline;\">Los principios rectores de la OMS<\/span><\/b><\/p>\n<p style=\"text-align: justify;\">En julio de 2021, la OMS public\u00f3 el primer informe mundial sobre IA aplicada a la salud (informe titulado \u201cEthics and governance of artificial intelligence for health\u201d).<\/p>\n<p style=\"text-align: justify;\">A fin de limitar los riesgos y aumentar al m\u00e1ximo las oportunidades que conlleva la utilizaci\u00f3n de la IA en el \u00e1mbito de la salud, la OMS propuso que la reglamentaci\u00f3n y gobernanza de la IA se basen en los seis principios siguientes:<\/p>\n<ul style=\"text-align: justify;\">\n<li><span style=\"text-decoration: underline;\">Preservar la autonom\u00eda del ser humano<\/span>. En el contexto de la atenci\u00f3n de salud, ello significa que los seres humanos deber\u00edan seguir siendo due\u00f1os de los sistemas de atenci\u00f3n de salud y las decisiones m\u00e9dicas; se deber\u00eda preservar la privacidad y la confidencialidad, y los pacientes deben dar su consentimiento informado y v\u00e1lido por medio de marcos jur\u00eddicos adecuados para la protecci\u00f3n de datos.<\/li>\n<li><span style=\"text-decoration: underline;\">Promover el bienestar y la seguridad de las personas y el inter\u00e9s p\u00fablico<\/span>. Los dise\u00f1adores de tecnolog\u00edas de IA deber\u00edan cumplir los requisitos normativos en materia de seguridad, precisi\u00f3n y eficacia para indicaciones o usos bien definidos. Se deben instaurar medidas de control de la calidad en la pr\u00e1ctica y de mejora de la calidad en la utilizaci\u00f3n de la IA.<\/li>\n<li><span style=\"text-decoration: underline;\">Garantizar la transparencia, la claridad y la inteligibilidad<\/span>. La transparencia exige que se publique o documente informaci\u00f3n suficiente antes de la concepci\u00f3n o el despliegue de una tecnolog\u00eda de IA. Esa informaci\u00f3n debe ser f\u00e1cilmente accesible y facilitar consultas y debates provechosos sobre la concepci\u00f3n de la tecnolog\u00eda y sobre el uso que se deber\u00eda hacer o no de \u00e9sta.<\/li>\n<li><span style=\"text-decoration: underline;\">Promover la responsabilidad y la rendici\u00f3n de cuentas<\/span>. Las tecnolog\u00edas de IA permiten realizar tareas espec\u00edficas; ahora bien, incumbe a las partes interesadas velar para que \u00e9stas sean utilizadas en condiciones apropiadas y por personas debidamente formadas. Se deber\u00edan instaurar mecanismos eficaces para que las personas y los grupos que se vean perjudicados por decisiones basadas en algoritmos puedan cuestionarlas y obtener reparaci\u00f3n.<\/li>\n<li><span style=\"text-decoration: underline;\">Garantizar la inclusi\u00f3n y la equidad<\/span>. La inclusi\u00f3n requiere que la IA aplicada a la salud sea concebida de manera que aliente la utilizaci\u00f3n y el acceso equitativos en la mayor medida de lo posible, con independencia de la edad, el sexo, el g\u00e9nero, el ingreso, la raza, el origen \u00e9tnico, la orientaci\u00f3n sexual, la capacidad u otras caracter\u00edsticas amparadas por los c\u00f3digos de derechos humanos.<\/li>\n<li><span style=\"text-decoration: underline;\">Promover una IA con capacidad de respuesta y sostenible<\/span>. Los dise\u00f1adores, desarrolladores y usuarios deber\u00edan evaluar de forma continua y transparente las aplicaciones de la IA en situaci\u00f3n real a fin de determinar si \u00e9sta responde de manera adecuada y apropiada a las expectativas y las necesidades. Los sistemas de IA tambi\u00e9n se deber\u00edan concebir de modo que se reduzcan al m\u00ednimo sus efectos medioambientales y se aumente la eficiencia energ\u00e9tica. Los gobiernos y las empresas deber\u00edan anticipar las perturbaciones ocasionadas en el lugar de trabajo, en particular la formaci\u00f3n que se deber\u00e1 impartir a los agentes de salud para que se familiaricen con el uso de los sistemas de IA, y las posibles p\u00e9rdidas de empleos debidas a la utilizaci\u00f3n de sistemas automatizados.<\/li>\n<\/ul>\n<p style=\"text-align: justify;\"><b>1.2\u00a0\u00a0\u00a0\u00a0<\/b><b><span style=\"text-decoration: underline;\">La Recomendaci\u00f3n sobre la \u00c9tica de la Inteligencia Artificial de la UNESCO<\/span><\/b><\/p>\n<p style=\"text-align: justify;\">En noviembre de 2021, la UNESCO aprob\u00f3 la Recomendaci\u00f3n sobre la \u00c9tica de la Inteligencia Artificial, primer instrumento normativo mundial sobre la \u00e9tica de IA.<\/p>\n<p style=\"text-align: justify;\">Textualmente se aspira a \u201caportar un instrumento normativo aceptado mundialmente que no solo se centre en la articulaci\u00f3n de valores<a title=\"\" href=\"applewebdata:\/\/3ACC3BF6-B23F-4A2A-940B-7E7AC4EFDD4B#_ftn1\">[1]<\/a>\u00a0y principios<a title=\"\" href=\"applewebdata:\/\/3ACC3BF6-B23F-4A2A-940B-7E7AC4EFDD4B#_ftn2\">[2]<\/a>, sino tambi\u00e9n en su aplicaci\u00f3n pr\u00e1ctica, mediante recomendaciones de pol\u00edtica concretas (\u2026)\u201d. Sin perjuicio de su estatus de derecho blando y de los l\u00edmites propios de normas del estilo, la consigna postulada llama la atenci\u00f3n por cuanto excede la propuesta de principios generales orientadores que en otros instrumentos ensay\u00f3 UNESCO y presenta, en cambio,\u00a0<span style=\"text-decoration: underline;\">recomendaciones de pol\u00edticas concretas<\/span>.<\/p>\n<p style=\"text-align: justify;\">En ese marco, se consignan\u00a0<span style=\"text-decoration: underline;\">medidas espec\u00edficas a desplegarse para la salud y el bienestar social.<\/span><\/p>\n<p style=\"text-align: justify;\">Dichas medidas son de inter\u00e9s, por lo cual las reproducimos en su integridad a continuaci\u00f3n:<\/p>\n<p style=\"text-align: justify;\">\u00c1MBITO DE ACTUACI\u00d3N 11: SALUD Y BIENESTAR SOCIAL<\/p>\n<p style=\"text-align: justify;\">121. Los Estados Miembros deber\u00edan esforzarse por emplear sistemas eficaces de IA para mejorar la salud humana y proteger el derecho a la vida, en particular atenuando los brotes de enfermedades, al tiempo que desarrollan y mantienen la solidaridad internacional para hacer frente a los riesgos e incertidumbres relacionados con la salud en el plano mundial, y garantizar que su despliegue de sistemas de IA en el \u00e1mbito de la atenci\u00f3n de la salud sea conforme al derecho internacional y a sus obligaciones en materia de derechos humanos. Los Estados Miembros deber\u00edan velar por que los actores que participan en los sistemas de IA relacionados con la atenci\u00f3n de la salud tengan en cuenta la importancia de las relaciones del paciente con su familia y con el personal sanitario.<\/p>\n<p style=\"text-align: justify;\">122. Los Estados Miembros deber\u00edan garantizar que el desarrollo y el despliegue de los sistemas de IA relacionados con la salud en general y con la salud mental en particular \u2014prestando la debida atenci\u00f3n a los ni\u00f1os y los j\u00f3venes\u2014 est\u00e9n regulados, de modo que esos sistemas sean seguros, eficaces, eficientes y probados desde el punto de vista cient\u00edfico y m\u00e9dico y faciliten la innovaci\u00f3n y el progreso m\u00e9dico con base emp\u00edrica. Adem\u00e1s, en el \u00e1mbito conexo de las intervenciones de salud digital, se alienta encarecidamente a los Estados Miembros a que hagan participar activamente a los pacientes y sus representantes en todas las etapas pertinentes del desarrollo del sistema.<\/p>\n<p style=\"text-align: justify;\">123. Los Estados Miembros deber\u00edan prestar particular atenci\u00f3n a la regulaci\u00f3n de las soluciones de predicci\u00f3n, detecci\u00f3n y tratamiento m\u00e9dicos en las aplicaciones de la IA, mediante: a) la supervisi\u00f3n para minimizar y atenuar los sesgos; b) la inclusi\u00f3n del profesional, el paciente, el cuidador o el usuario del servicio en el equipo en calidad de \u201cexperto en la materia\u201d en todas las etapas pertinentes al elaborar los algoritmos; c) una debida atenci\u00f3n a la privacidad, dado que quiz\u00e1 sea necesaria una vigilancia m\u00e9dica, y el cumplimiento de todos los requisitos nacionales e internacionales pertinentes en materia de protecci\u00f3n de datos; d) mecanismos eficaces para que las personas cuyos datos personales se est\u00e1n analizando sepan de la utilizaci\u00f3n y el an\u00e1lisis de sus datos y den su consentimiento informado al respecto, sin impedir el acceso a la atenci\u00f3n de la salud; e) la garant\u00eda de que el cuidado humano y la decisi\u00f3n final sobre el diagn\u00f3stico y el tratamiento correspondan siempre a seres humanos, reconociendo al mismo tiempo que los sistemas de IA tambi\u00e9n pueden ayudarlos en su trabajo; f ) el examen, cuando sea necesario, de los sistemas de IA por un comit\u00e9 de investigaci\u00f3n \u00e9tica antes de su uso cl\u00ednico.<\/p>\n<p style=\"text-align: justify;\">124. Los Estados Miembros deber\u00edan realizar investigaciones sobre los efectos y la regulaci\u00f3n de los posibles da\u00f1os de los sistemas de IA para la salud mental, tales como un aumento de la depresi\u00f3n, la ansiedad, el aislamiento social, el desarrollo de adicciones, el tr\u00e1fico, la radicalizaci\u00f3n y la informaci\u00f3n err\u00f3nea, entre otros.<\/p>\n<p style=\"text-align: justify;\">125. Los Estados Miembros deber\u00edan elaborar directrices sobre las interacciones entre seres humanos y robots y sus repercusiones en las relaciones entre seres humanos, basadas en la investigaci\u00f3n y orientadas al desarrollo futuro de robots, y prestando especial atenci\u00f3n a la salud mental y f\u00edsica de los seres humanos. Deber\u00eda prestarse particular atenci\u00f3n al uso de robots en la atenci\u00f3n de la salud, en la atenci\u00f3n a las personas de edad y las personas con discapacidad y en el \u00e1mbito de la educaci\u00f3n, as\u00ed como a los robots para uso infantil y para usos l\u00fadicos, conversacionales y de compa\u00f1\u00eda para ni\u00f1os y adultos. Adem\u00e1s, deber\u00edan utilizarse las tecnolog\u00edas de la IA para mejorar la seguridad y el uso ergon\u00f3mico de los robots, en particular en entornos de trabajo en los que intervienen robots y seres humanos. Deber\u00eda prestarse especial atenci\u00f3n a la posibilidad de utilizar la IA para manipular los sesgos cognitivos humanos y hacer un mal uso de ellos.<\/p>\n<p style=\"text-align: justify;\">126. Los Estados Miembros deber\u00edan velar por que las interacciones entre seres humanos y robots se ajusten a los mismos valores y principios que se aplican a cualquier otro sistema de IA, lo que incluye los derechos humanos y las libertades fundamentales, la promoci\u00f3n de la diversidad y la protecci\u00f3n de las personas vulnerables o en situaci\u00f3n de vulnerabilidad. Las cuestiones \u00e9ticas relativas a los sistemas basados en la IA utilizados en las neurotecnolog\u00edas y las interfaces cerebro-ordenador deber\u00edan tenerse en cuenta a fin de preservar la dignidad y la autonom\u00eda humanas.<\/p>\n<p style=\"text-align: justify;\">127. Los Estados Miembros deber\u00edan velar por que los usuarios puedan determinar f\u00e1cilmente si interact\u00faan con un ser vivo o con un sistema de IA que imita las caracter\u00edsticas humanas o animales y puedan rechazar eficazmente dicha interacci\u00f3n y solicitar la intervenci\u00f3n humana.<\/p>\n<p style=\"text-align: justify;\">128. Los Estados Miembros deber\u00edan aplicar pol\u00edticas de sensibilizaci\u00f3n sobre la antropomorfizaci\u00f3n de las tecnolog\u00edas de la IA y las tecnolog\u00edas que reconocen e imitan las emociones humanas, especialmente en el lenguaje utilizado para referirse a ellas, y evaluar las manifestaciones, las implicaciones \u00e9ticas y las posibles limitaciones de esa antropomorfizaci\u00f3n, en particular en el contexto de la interacci\u00f3n entre robots y seres humanos y, especialmente, cuando se trate de ni\u00f1os.<\/p>\n<p style=\"text-align: justify;\">129. Los Estados Miembros deber\u00edan alentar y promover la investigaci\u00f3n colaborativa sobre los efectos de la interacci\u00f3n a largo plazo de las personas con los sistemas de IA, prestando especial atenci\u00f3n a las consecuencias psicol\u00f3gicas y cognitivas que estos sistemas pueden tener en los ni\u00f1os y los j\u00f3venes. Para ello deber\u00edan utilizarse m\u00faltiples normas, principios, protocolos, enfoques disciplinarios y un an\u00e1lisis de la modificaci\u00f3n de las conductas y los h\u00e1bitos, as\u00ed como una cuidadosa evaluaci\u00f3n de los impactos culturales y sociales posteriores. Adem\u00e1s, los Estados Miembros deber\u00edan alentar la investigaci\u00f3n sobre el efecto de las tecnolog\u00edas de la IA en el desempe\u00f1o del sistema sanitario y los resultados en materia de salud.<\/p>\n<p style=\"text-align: justify;\">130. Los Estados Miembros, as\u00ed como todas las partes interesadas, deber\u00edan establecer mecanismos para hacer participar de manera significativa a los ni\u00f1os y los j\u00f3venes en las conversaciones, los debates y la adopci\u00f3n de decisiones sobre las repercusiones de los sistemas de IA en sus vidas y su futuro<\/p>\n<p style=\"text-align: justify;\">Por \u00faltimo, en materia de \u201csoft law\u201d, nos parece interesante resaltar que la Uni\u00f3n Europea y Estados Unidos anunciaron a fines de mayo 2023 la creaci\u00f3n de un borrador de \u201cc\u00f3digo de conducta\u201d com\u00fan para la IA, que se aplicar\u00eda de manera voluntaria por las empresas del sector, frente al riesgo de que China tome la iniciativa de regular un \u00e1mbito en pleno auge.<\/p>\n<p style=\"text-align: justify;\"><b>2.\u00a0\u00a0\u00a0\u00a0\u00a0<\/b><b><span style=\"text-decoration: underline;\">El enfoque de la Uni\u00f3n Europea<\/span><\/b><\/p>\n<p style=\"text-align: justify;\"><b>2.1\u00a0\u00a0<\/b><b><span style=\"text-decoration: underline;\">La propuesta de Reglamento de Inteligencia Artificial (AI Act)<\/span><\/b><\/p>\n<p style=\"text-align: justify;\">En abril de 2021, la Comisi\u00f3n Europea present\u00f3 su paquete de IA, que inclu\u00eda:<\/p>\n<p style=\"text-align: justify;\">&#8211;\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0su Comunicaci\u00f3n sobre el fomento de un enfoque europeo de la inteligencia artificial;<\/p>\n<p style=\"text-align: justify;\">&#8211;\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0una actualizaci\u00f3n del Plan coordinado sobre inteligencia artificial (cuyo objetivo es acelerar la inversi\u00f3n en IA en Europa)<\/p>\n<p style=\"text-align: justify;\">&#8211;\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0su propuesta de Reglamento por el que se establecen normas armonizadas sobre la IA\u00a0 y la\u00a0evaluaci\u00f3n de impacto pertinente.<\/p>\n<p style=\"text-align: justify;\">La propuesta de Reglamento de Inteligencia Artificial (AI Act) sigue un\u00a0<span style=\"text-decoration: underline;\">enfoque basado en los riesgos<\/span>\u00a0(distinguiendo entre cuatro niveles de riesgo diferentes: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo m\u00ednimo) y establece un marco jur\u00eddico horizontal y uniforme para la IA encaminado a garantizar la seguridad jur\u00eddica.\u00a0Promueve la inversi\u00f3n y la innovaci\u00f3n en IA, mejora la gobernanza y la aplicaci\u00f3n efectiva de la legislaci\u00f3n vigente en materia de derechos fundamentales y seguridad, y facilita el desarrollo de un mercado \u00fanico para las aplicaciones de IA.<\/p>\n<p style=\"text-align: justify;\">En diciembre de 2022, el Consejo de la Uni\u00f3n Europea adopt\u00f3 su posici\u00f3n com\u00fan (orientaci\u00f3n general) sobre el Reglamento de Inteligencia Artificial. El 11 de mayo de 2023, la Comisi\u00f3n de Mercado Interior y la Comisi\u00f3n de Libertades Civiles del Parlamento Europeo aprobaron un proyecto de mandato de negociaci\u00f3n sobre el Reglamento antemencionado. Se espera que en junio el Parlamento finalice su posici\u00f3n para que las tres instituciones acuerden el texto definitivo para el Reglamento en la materia.<\/p>\n<p style=\"text-align: justify;\">Se pretende lograr que los sistemas de inteligencia artificial puedan tener supervisi\u00f3n humana, sean seguros, transparente, trazables, no discriminatorios y respeten el medio ambiente, a la vez que se intenta lograr una definici\u00f3n de la IA que sea tecnol\u00f3gicamente neutra para perdurar en el tiempo ante los avances de la tecnolog\u00eda. En el proyecto se destaca la prohibici\u00f3n de los sistemas de inteligencia artificial que utilicen t\u00e9cnicas subliminales que trasciendan la conciencia de una persona para alterar su comportamiento, o se aproveche de las vulnerabilidades de un grupo espec\u00edfico de personas para alterar su comportamiento, tambi\u00e9n aquellas IA que eval\u00faen y clasifiquen a las personas en periodos de tiempo por su conducta social (Scoring social).<\/p>\n<p style=\"text-align: justify;\">Por otro lado,\u00a0<span style=\"text-decoration: underline;\">se clasifican las IA seg\u00fan el nivel de riesgo y establecen obligaciones para proveedores y usuarios en virtud de ese riesgo<\/span>, que con el nuevo documento ampl\u00eda la clasificaci\u00f3n de \u00e1reas de alto riesgo incluyendo\u00a0<span style=\"text-decoration: underline;\">da\u00f1os a la salud<\/span>, la seguridad, los derechos fundamentales, el medio ambiente, las campa\u00f1as pol\u00edticas y los sistemas de recomendaci\u00f3n utilizados por redes sociales seg\u00fan la ley de servicios digitales.<\/p>\n<p style=\"text-align: justify;\">Se introducen nuevas prohibiciones de usos intrusivos y discriminatorios de sistemas de IA como la identificaci\u00f3n biom\u00e9trica remota \u00aben tiempo real\u00bb en espacios de acceso p\u00fablico; la identificaci\u00f3n biom\u00e9trica remota \u00aba posteriori\u00bb (salvo que autorice un juez en supuestos especiales), la categorizaci\u00f3n biom\u00e9trica por datos sensibles (raza, sexo, estatus, religi\u00f3n, pol\u00edtica, etc.), los sistemas policiales predictivos (seg\u00fan perfiles, localizaci\u00f3n o antecedentes), los sistemas de reconocimiento de emociones en determinados supuestos y la extracci\u00f3n indiscriminada de datos biom\u00e9tricos de redes sociales o grabaciones de CCTV para crear bases de datos de reconocimiento facial en violaci\u00f3n de los derechos humanos y del derecho a la intimidad.<\/p>\n<p style=\"text-align: justify;\">Los modelos de base generativa como GPT cumplir\u00e1n requisitos adicionales de transparencia como identificar cuando un contenido fue generado por la IA, evitar que genere contenidos ilegales y publicar res\u00famenes de los datos protegidos por derechos de autor utilizados para su entrenamiento.<\/p>\n<p style=\"text-align: justify;\">Los ciudadanos podr\u00e1n presentar quejas sobre un sistema de IA de alto riesgo y recibir explicaciones claras y significativas sobre el papel de la IA en el procedimiento de toma de decisiones, los principales par\u00e1metros de la decisi\u00f3n adoptada y los datos de entrada relacionados.<\/p>\n<p style=\"text-align: justify;\">Los sistemas estar\u00e1n registrados y contar\u00e1n con la supervisi\u00f3n de una oficina especializada.<\/p>\n<p style=\"text-align: justify;\"><b>2.2 \u00a0<\/b><b><span style=\"text-decoration: underline;\">IA y r\u00e9gimen de datos personales en la Uni\u00f3n Europea<\/span><\/b><\/p>\n<p style=\"text-align: justify;\">Tal como lo indicamos en la introducci\u00f3n, aunque todav\u00eda no este adoptado definitivamente el AI Act, se utiliza la normativa de datos personales para adoptar medidas respecto de los sistemas de IA.<\/p>\n<p style=\"text-align: justify;\">Pues, los sistemas de IA se \u201cnutren\u201d de datos, funcionan en base a datos, logran resultados derivados de recolectar y procesar estos datos, la mayor parte de los cuales son datos personales. Por eso resulta natural que se controle que los sistemas de IA cumplan con los requerimientos legislativos de datos personales.<\/p>\n<p style=\"text-align: justify;\">El Reglamento de Protecci\u00f3n de Datos de la Uni\u00f3n Europea (RGPD) contienen preceptos m\u00e1s espec\u00edficamente aplicables a los sistemas de IA.<\/p>\n<p style=\"text-align: justify;\">&#8211;\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0Mediante los principios de \u201cProtecci\u00f3n de datos desde el dise\u00f1o y por defecto\u201d (art. 25), el RGPD exige la adopci\u00f3n de ciertas \u201cmedidas t\u00e9cnicas y organizativas\u201d \u2018ex-ante\u2019 desde el desarrollo mismo de los sistemas de tratamientos masivos de datos personales; as\u00ed como medidas \u201ccon miras a garantizar que, por defecto, solo sean objeto de tratamiento los datos personales que sean necesarios para cada uno de los fines espec\u00edficos del tratamiento\u2026. Esta obligaci\u00f3n se aplicar\u00e1 a la cantidad de datos personales recogidos, a la extensi\u00f3n de su tratamiento, a su plazo de conservaci\u00f3n y a su accesibilidad. Tales medidas garantizar\u00e1n en particular que, por defecto, los datos personales no sean accesibles, sin la intervenci\u00f3n de la persona, a un n\u00famero indeterminado de personas f\u00edsicas.\u201d<\/p>\n<p style=\"text-align: justify;\">&#8211;\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0Por otra parte, el RGPD exige una \u201cevaluaci\u00f3n de impacto relativa a la protecci\u00f3n de datos\u201d (art. 35), cuyos requisitos m\u00ednimos se describen detalladamente (\u00edtems a a d del inc. 7 del art. 35) \u201ccuando sea probable que un tipo de tratamiento, en particular si utiliza nuevas tecnolog\u00edas, por su naturaleza, alcance, contexto o fines, entra\u00f1e un alto riesgo para los derechos y libertades de las personas f\u00edsicas\u201d. Esta evaluaci\u00f3n (\u2018Data Protection Impact Assessment\u2019) debe ser realizada por el responsable \u201cantes del tratamiento de datos\u201d, previendo el RGPD situaciones espec\u00edficas al respecto (especialmente para tratamiento de datos sistem\u00e1ticos, automatizados y a gran escala) y la necesidad de requerir la consulta previa a la autoridad de control para determinados supuestos de riesgos potencialmente altos (art. 36).<\/p>\n<p style=\"text-align: justify;\">Se puede entonces efectuar el control de cumplimiento de la normativa sobre datos personales a los responsables de tratamiento de datos que utilizan sistemas de IA.<\/p>\n<p style=\"text-align: justify;\">En lo atinente a la salud, nos parece interesante mencionar que, en el marco de la Estrategia Europea de Datos, la Comisi\u00f3n Europea present\u00f3 en mayo de 2022 una propuesta de reglamento para la creaci\u00f3n del Espacio Europeo de Datos Sanitarios (el \u00abEEDS\u00bb), cuyo objetivo es (i) ayudar a los usuarios a tomar control de sus propios datos sanitarios y (ii) apoyar el uso de los datos sanitarios para mejorar la prestaci\u00f3n de asistencia sanitaria, la investigaci\u00f3n, innovaci\u00f3n y elaboraci\u00f3n de pol\u00edticas. Asimismo, el reglamento tambi\u00e9n permitir\u00e1 a la Uni\u00f3n Europea beneficiarse del intercambio, uso y reutilizaci\u00f3n de los datos sanitarios.<\/p>\n<p style=\"text-align: justify;\"><b>3.\u00a0\u00a0\u00a0\u00a0\u00a0<\/b><b><span style=\"text-decoration: underline;\">La situaci\u00f3n en Argentina<\/span><\/b><\/p>\n<p style=\"text-align: justify;\"><b>3.1 \u00a0\u00a0<\/b><b><span style=\"text-decoration: underline;\">Los principios rectores recientemente aprobados<\/span><\/b><\/p>\n<p style=\"text-align: justify;\">Tomando en cuenta los antecedentes de softlaw antemencionados (as\u00ed como la Conferencia de Asilomar, las reuniones del Consejo de Ministros de la OCDE y la reuni\u00f3n ministerial sobre Comercio y Econom\u00eda Digital del G20), el 2 de junio de 2023, la Subsecretar\u00eda de Tecnolog\u00edas de la Informaci\u00f3n public\u00f3 la Disposici\u00f3n 2\/2023 mediante la cual se aprobaron las \u201c<span style=\"text-decoration: underline;\">Recomendaciones para una Inteligencia Artificial Fiable<\/span>\u201d. Cabe aclarar que no se tratan de recomendaciones espec\u00edficas a la IA aplicada a la salud.<\/p>\n<p style=\"text-align: justify;\">Las Recomendaciones tienen como objetivo establecer reglas claras para garantizar que los beneficios de los avances tecnol\u00f3gicos sean aprovechados por todos los sectores de la sociedad, fortaleciendo el ecosistema cient\u00edfico y tecnol\u00f3gico argentino.<\/p>\n<p style=\"text-align: justify;\">Entre las principales recomendaciones se destaca la importancia de no forzar el uso de IA, resaltando que \u00e9sta no siempre es la mejor herramienta para abordar un problema espec\u00edfico. Tambi\u00e9n se enfatiza que la responsabilidad y supervisi\u00f3n deben recaer siempre en los seres humanos, ya que la IA s\u00f3lo ejecuta acciones en respuesta a solicitudes humanas.<\/p>\n<p style=\"text-align: justify;\">Asimismo, se promueve la conformaci\u00f3n de equipos diversos y multidisciplinarios, conscientes de los desaf\u00edos \u00e9ticos de los proyectos de IA. La calidad y el tratamiento adecuado de los datos, el dise\u00f1o de modelos transparentes y explicables, la implementaci\u00f3n segura y auditable, y la garant\u00eda de atenci\u00f3n humana para aquellos que la necesiten.<\/p>\n<p style=\"text-align: justify;\">M\u00e1s all\u00e1 de la promoci\u00f3n de buenas pr\u00e1cticas, Argentina no cuenta por ahora con una legislaci\u00f3n concreta en materia de IA que regule la misma. Sin embargo, el r\u00e9gimen de datos personales argentino cuenta con normativa bajo la cual pueden revisarse jur\u00eddicamente los sistemas de IA; y eventualmente adoptar medidas al respecto.<\/p>\n<p style=\"text-align: justify;\"><b>3.2 \u00a0<\/b><b><span style=\"text-decoration: underline;\">IA y r\u00e9gimen de datos personales en Argentina<\/span><\/b><\/p>\n<p style=\"text-align: justify;\">La ley 25.326 establece principios de fondo similares a los del RGPD (consentimiento informado, finalidad, confidencialidad, seguridad de los datos, etc.), obligatorios para cualquier proceso de recolecci\u00f3n y tratamiento de datos personales.<\/p>\n<p style=\"text-align: justify;\">La Agencia de Acceso a la Informaci\u00f3n P\u00fablica (AAIP), autoridad de aplicaci\u00f3n de dicha norma, estableci\u00f3 \u201cMedidas de seguridad recomendadas para el tratamiento y conservaci\u00f3n de los Datos Personales en medios informatizados\u201d (Res. AAIP 47\/2018).<\/p>\n<p style=\"text-align: justify;\">Tambi\u00e9n se encuentra vigente la Disposici\u00f3n AAIP 18\/2015, mediante la cual la AAIP aprob\u00f3 una \u201cGu\u00eda de Buenas Pr\u00e1cticas en Privacidad para el Desarrollo de Aplicaciones\u201d. La misma prev\u00e9 los conceptos de \u201cPrivacidad desde el Dise\u00f1o y por Defecto\u201d, de modo sustancialmente similar al RGPD. Adem\u00e1s, esta norma indica la implementaci\u00f3n de \u201cPrivacy-Enhancing Technologies (PET)\u201d, para cuidar la privacidad de las personas titulares de los datos en el desarrollo de aplicaciones.<\/p>\n<p style=\"text-align: justify;\">Cabe agregar que la adopci\u00f3n de medidas apropiadas para proteger \u201cla privacidad desde el dise\u00f1o y por defecto\u201d se encuentra expresamente prevista en la \u00faltima versi\u00f3n de la propuesta de proyecto de ley de datos personales elaborada por la AAIP en febrero de 2023.<\/p>\n<p style=\"text-align: justify;\">M\u00e1s a\u00fan, la obligaci\u00f3n de implementar este tipo de medidas se encuentra tambi\u00e9n contempladas en el Protocolo Modificatorio del Convenio para la Protecci\u00f3n de las Personas con respecto al Tratamiento Automatizado de Datos de Car\u00e1cter Personal, suscripto en Estrasburgo en 2018 (conocido \u201cConvenio 108+\u201d) aprobado en nuestro pa\u00eds con la promulgaci\u00f3n de la Ley 27.699.<\/p>\n<p style=\"text-align: justify;\">El Convenio impone obligaciones m\u00e1s amplias a quienes tratan datos o hacen tratar datos en su nombre. El principio de responsabilidad proactiva (\u201caccountability\u201d) \u2013 seg\u00fan el cual el responsable del tratamiento de datos debe cumplir con lo establecido en las normas de protecci\u00f3n de datos y, adem\u00e1s, ser capaz de demostrarlo \u2013 se convierte en parte integrante del r\u00e9gimen de protecci\u00f3n. Los responsables del tratamiento deben tomar todas las medidas apropiadas, incluso cuando el tratamiento se externalice, para garantizar el derecho a la protecci\u00f3n de datos (privacidad desde el dise\u00f1o, examen del impacto probable del tratamiento de datos previsto sobre los derechos y libertades fundamentales de los interesados (\u00abevaluaci\u00f3n del impacto sobre la privacidad\u00bb) y privacidad por defecto).<\/p>\n<p style=\"text-align: justify;\">Se conceden tambi\u00e9n nuevos derechos a los interesados para que tengan un mayor control sobre sus datos en la era digital. El Convenio ampl\u00eda el cat\u00e1logo de informaci\u00f3n que debe transmitirse a los interesados cuando ejercen su derecho de acceso. Adem\u00e1s, los interesados tienen derecho a conocer el razonamiento en que se basa el tratamiento de datos cuyos resultados se le aplican. Este nuevo derecho es especialmente importante en lo que respecta a la elaboraci\u00f3n de perfiles de las personas y se asocia a otra novedad, a saber, el derecho a no ser objeto de una decisi\u00f3n que afecte al interesado y que se base \u00fanicamente en un tratamiento automatizado, sin que se tenga en cuenta su opini\u00f3n. Los interesados tienen derecho a oponerse en cualquier momento al tratamiento de sus datos personales, a menos que el responsable del tratamiento demuestre motivos leg\u00edtimos imperiosos para el tratamiento que prevalezcan sobre sus intereses o derechos y libertades fundamentales.<\/p>\n<p style=\"text-align: justify;\">Como puede apreciarse, pese al atraso regulatorio de nuestro pa\u00eds en el \u00e1rea tecnol\u00f3gica, Argentina cuenta con un bagaje legislativo a la luz del cual pueden evaluarse jur\u00eddicamente las herramientas de IA que se apliquen en nuestro territorio.<\/p>\n<div><br clear=\"all\" \/><\/p>\n<hr align=\"left\" size=\"1\" width=\"33%\" \/>\n<div style=\"text-align: justify;\">\n<p><a title=\"\" href=\"applewebdata:\/\/3ACC3BF6-B23F-4A2A-940B-7E7AC4EFDD4B#_ftnref1\">[1]<\/a>\u00a0La recomendaci\u00f3n prev\u00e9, espec\u00edficamente, los siguientes valores: Respeto, protecci\u00f3n y promoci\u00f3n de los derechos humanos, las libertades fundamentales y la dignidad humana; Prosperidad del medio ambiente y los ecosistemas; Garantizar la diversidad y la inclusi\u00f3n; Vivir en sociedades pac\u00edficas, justas e interconectadas.<\/p>\n<\/div>\n<div>\n<p style=\"text-align: justify;\"><a title=\"\" href=\"applewebdata:\/\/3ACC3BF6-B23F-4A2A-940B-7E7AC4EFDD4B#_ftnref2\">[2]<\/a>\u00a0En cuanto a los \u201cprincipios\u201d, se indican: proporcionalidad e inocuidad; seguridad y protecci\u00f3n; equidad y no discriminaci\u00f3n; sostenibilidad; derecho a la intimidad y protecci\u00f3n de datos; supervisi\u00f3n y decisi\u00f3n humanas; transparencia y explicabilidad; responsabilidad y rendici\u00f3n de cuentas; sensibilizaci\u00f3n y educaci\u00f3n; gobernanza y colaboraci\u00f3n adaptativas y de m\u00faltiples partes interesadas.<\/p>\n<\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>La inteligencia artificial (IA) est\u00e1 revolucionando la salud al ofrecer oportunidades de mejora, al tiempo que tambi\u00e9n plantea desaf\u00edos regulatorios y \u00e9ticos. Analizamos algunos instrumentos del marco regulatorio de la IA a nivel global y local.<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[145,152,143,43],"tags":[],"class_list":["post-1888","post","type-post","status-publish","format-standard","hentry","category-anmat","category-datos-personales","category-derecho-de-la-salud","category-es-ar"],"_links":{"self":[{"href":"https:\/\/www.estudiotrevisan.com\/sitio\/wp-json\/wp\/v2\/posts\/1888","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.estudiotrevisan.com\/sitio\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.estudiotrevisan.com\/sitio\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.estudiotrevisan.com\/sitio\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.estudiotrevisan.com\/sitio\/wp-json\/wp\/v2\/comments?post=1888"}],"version-history":[{"count":0,"href":"https:\/\/www.estudiotrevisan.com\/sitio\/wp-json\/wp\/v2\/posts\/1888\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.estudiotrevisan.com\/sitio\/wp-json\/wp\/v2\/media?parent=1888"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.estudiotrevisan.com\/sitio\/wp-json\/wp\/v2\/categories?post=1888"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.estudiotrevisan.com\/sitio\/wp-json\/wp\/v2\/tags?post=1888"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}