Principios para la Administración Responsable de una Inteligencia Artificial Confiable

DERECHO DE LA INTELIGENCIA ARTIFICIAL promueve los principios de desarrollo de la Inteligencia Artificial recomendados por el Consejo de Inteligencia Artificial de la OECD y suscritos por todos los países miembros de dicha organización internacional.

  1. Crecimiento inclusivo, desarrollo sostenible y bienestar: Las partes interesadas deben participar de manera proactiva en la administración responsable de la IA confiable en la búsqueda de resultados beneficiosos para las personas y el planeta, como aumentar las capacidades humanas y mejorar la creatividad, promover la inclusión de poblaciones subrepresentadas, reducir las desigualdades económicas, sociales, de género y de otro tipo, y proteger los entornos naturales, estimulando así el crecimiento inclusivo, el desarrollo sostenible y el bienestar.

  2. Valores y equidad centrados en el ser humano: Los sistemas de IA deben diseñarse respetando el estado de derecho, los derechos humanos, los valores democráticos y la diversidad, durante todo el ciclo de vida del sistema. Estos incluyen libertad, dignidad, autonomía, privacidad, protección de datos, no discriminación e igualdad, diversidad, equidad, justicia social y derechos laborales reconocidos internacionalmente. Para ello, los actores de la IA deben implementar mecanismos y salvaguardas, como la capacidad de determinación humana, que sean adecuados al contexto y acordes con el estado del arte.

  3. Transparencia y explicabilidad: Los sistemas de IA deben ser transparentes y claros, de manera que permitan a sus usuarios entender su funcionamiento y resultados. Los actores de IA deben comprometerse con la transparencia y la divulgación responsable con respecto a los sistemas de IA. Para ello, deben proporcionar información significativa, adecuada al contexto y coherente con el estado de la técnica:

    i. para fomentar una comprensión general de los sistemas de IA,
    ii. para que las partes interesadas conozcan sus interacciones con los sistemas de IA, incluso en el lugar de trabajo,
    iii. para que los afectados por un sistema de inteligencia artificial comprendan el resultado,
    iv. para permitir que aquellos afectados negativamente por un sistema de inteligencia artificial cuestionen su resultado basándose en información simple y fácil de entender sobre los factores y la lógica que sirvió de base para la predicción, recomendación o decisión.

  4. Robustez, seguridad y protección: Los sistemas de IA deben funcionar de manera sólida y seguraa lo largo de su ciclo de vida y los riesgos potenciales deben evaluarse y gestionarse continuamente.

    a) Los sistemas de inteligencia artificial deben ser robustos, seguros y seguros durante todo su ciclo de vida para que, en condiciones de uso normal, uso previsible o mal uso u otras condiciones adversas, funcionen adecuadamente y no presenten riesgos de seguridad irrazonables.

    b) Con este fin, los actores de la IA deben garantizar la trazabilidad, incluso en relación con los conjuntos de datos, los procesos y las decisiones tomadas durante el ciclo de vida del sistema de IA, para permitir el análisis de los resultados del sistema de IA y las respuestas a las consultas, apropiadas al contexto y coherentes con el estado. de arte.

    c) Los actores de la IA deben, en función de sus roles, el contexto y su capacidad para actuar, aplicar un enfoque sistemático de gestión de riesgos a cada fase del ciclo de vida del sistema de IA de forma continua para abordar los riesgos relacionados con los sistemas de IA, incluida la privacidad, la tecnología digital. seguridad, protección y prejuicio.

  5. Responsabilidad: Las organizaciones e individuos que desarrollan, despliegan u operan sistemas de IA deben ser responsables de su correcto funcionamiento, en base a los principios anteriormente descritos.