Para escribir esta entrada me he basado en un artículo muy interesante publicado por la comisión europea y que puedes consultar íntegramente aquí.
Creo que es importante ayudar a todos a ir explicando dudas, temores, conceptos, etc. que una tecnología como la inteligencia artificial (IA) puede sembrar en cada uno de nosotros.
Como en otras ocasiones donde aparece una nueva tecnología, esta puede generar desconfianza en los consumidores y esta falta de confianza muy fácilmente puede generar inseguridad jurídica a las empresas. La ley aprobada por la UE intenta dar respuesta a estos dos problemas de forma que las personas confien en ella y las empresas no encuentren una barrera a la hora de usar/implementar/construir esta tecnología. Como siempre habrá empresas que lo haga bien y otras no tan bien. Para eso estamos los consumidores para tener la libertad de elegir y en caso necesario usar los canales de denuncia que cada país, cuando se haga la transposición de la norma implanten.
Como en todas las normas que se aprueban en la UE a todas las empresas cuyo mercado sea la UE, independientemente del país donde tenga su sede la empresa propietaria. Hay tres casos especiales:
El riesgo de transparencia obliga a informar, independientemente de la clasificación de la IA (alto o mínimo), a los usuarios de estar interactuando con una máquina y no con un humano. Nos parece que este punto es fundamental, y nosotros siempre hemos defendido esta postura. Nuestros bots tienen un grado de acierto muy alto, pero siempre podemos cometer errores y al final el consumidor de estos debe tener claro este punto.
La ley, en su desarrollo, especifica las finalidades que determinan si una IA es de alto riesgo. Estas finalidades están descritas en el anexo III de la norma que puedes consultar en este enlace. Te dejo aquí una relación general de finalidades:
Algunos ejemplos de estas finalidades son:
Las obligaciones básicamente son cuatro:
La UE determina que cada país debe disponer de los mecanismos necesarios para la tramitación de las denuncias realizadas por los usuarios. Habrá que esperar a la transposición de la ley para ver cual es mecanismo implantado en cada país.
Como se ha comentado anteriormente las IA de alto riesgo tienen ciertas obligaciones, pero la UE anima a que las que son de riesgo mínimo se adhieran a un código de buenas practicas, avalado por alguna asociación representativa. Nos parece fundamental esto, ya que nos tocará vivir la explosión de las IA y tenemos la obligación ética y moral de garantizar a los consumidores que las IA que construimos son confiables.
Si necesitas aclaraciones no dudes en ponerte en contacto con nosotros mediante el formulario de la web o mándanos un WhatsApp.
© Universal Business Messenger 2023 | Aviso Legal | Cookies | Política de privacidad | Historial de Versiones | Estado de los servicios