ISO/IEC 12792:2025
(Main)Information technology — Artificial intelligence (AI) — Transparency taxonomy of AI systems
Information technology — Artificial intelligence (AI) — Transparency taxonomy of AI systems
This document specifies a taxonomy of information elements to assist AI stakeholders with identifying and addressing the needs for transparency of AI systems. The document describes the semantics of the information elements and their relevance to the various objectives of different stakeholders. This document is applicable to any kind of organization and application involving an AI system.
Technologies de l'information — Intelligence artificielle (IA) — Taxonomie pour la transparence des systèmes d’IA
Le présent document spécifie une taxonomie des éléments d'information afin d'aider les parties prenantes de l'IA à identifier et à traiter les besoins de transparence des systèmes d'IA. Le document décrit la sémantique des éléments d'information et leur pertinence par rapport aux différents objectifs des différentes parties prenantes. Le présent document s'applique à tout type d'organisation et d'application impliquant un système d'IA.
General Information
Standards Content (Sample)
International
Standard
ISO/IEC 12792
First edition
Information technology — Artificial
2025-11
intelligence (AI) — Transparency
taxonomy of AI systems
Technologies de l'information — Intelligence artificielle (IA) —
Taxonomie pour la transparence des systèmes d’IA
Reference number
© ISO/IEC 2025
All rights reserved. Unless otherwise specified, or required in the context of its implementation, no part of this publication may
be reproduced or utilized otherwise in any form or by any means, electronic or mechanical, including photocopying, or posting on
the internet or an intranet, without prior written permission. Permission can be requested from either ISO at the address below
or ISO’s member body in the country of the requester.
ISO copyright office
CP 401 • Ch. de Blandonnet 8
CH-1214 Vernier, Geneva
Phone: +41 22 749 01 11
Email: copyright@iso.org
Website: www.iso.org
Published in Switzerland
© ISO/IEC 2025 – All rights reserved
ii
Contents Page
Foreword .v
Introduction .vi
1 Scope . 1
2 Normative references . 1
3 Terms and definitions . 1
4 Symbols and abbreviated terms. 4
5 Overview . 4
5.1 General .4
5.2 Organization and usage of the taxonomy .4
5.3 Constraints on transparency disclosures .5
5.4 Concept of transparency .6
6 Stakeholders’ needs and transparency objectives . 7
6.1 General .7
6.2 Transparency objectives and goals .8
6.3 Selected stakeholder roles in transparency .9
7 Context-level taxonomy .11
7.1 General .11
7.2 Societal context .11
7.2.1 General .11
7.2.2 Labour practices .14
7.2.3 Consumer needs . 15
7.3 Environmental context .16
7.3.1 General .16
7.3.2 Particular environmental disclosures .17
7.3.3 Organizational disclosures .18
8 System-level taxonomy . 19
8.1 General .19
8.2 Basic information .19
8.3 Organizational processes . 20
8.3.1 General . 20
8.3.2 Governance . 20
8.3.3 Management system .21
8.3.4 Risk management .21
8.3.5 Quality management .21
8.4 Applicability .21
8.4.1 General .21
8.4.2 Intended purposes . 22
8.4.3 Capabilities . 22
8.4.4 Functional limitations . 22
8.4.5 Recommended uses . 22
8.4.6 Precluded uses . 22
8.5 Overview of technical characteristics . 22
8.5.1 General . 22
8.5.2 Expected inputs and outputs . 23
8.5.3 Production data . 23
8.5.4 Logging and storing . 23
8.5.5 System decomposition . 23
8.5.6 Application programming interface .24
8.5.7 Human factors .24
8.5.8 Deployment methods .24
8.5.9 Configuration management .24
8.6 Access to internal elements . 25
© ISO/IEC 2025 – All rights reserved
iii
8.7 Quality and performance . 26
8.7.1 General . 26
8.7.2 Verification and validation processes . 26
8.7.3 Runtime measurements . 26
8.7.4 Comparison with alternative systems .27
9 Model-level taxonomy .27
9.1 General .27
9.2 Basic information .27
9.3 Usage and model interplay . . 28
9.3.1 Processing performed by the model . 28
9.3.2 Dependence on other models . 28
9.3.3 Coherence with AI system’s intended purposes. 28
9.4 Technical characteristics . 28
9.4.1 Type of technology used . 28
9.4.2 Features extracted from input data . 28
9.4.3 Algorithm used for processing . 28
9.4.4 Procedure for building the model . 28
9.4.5 Hyperparameters . 29
9.4.6 Input and output formats . 30
9.4.7 Compute hardware . 30
9.4.8 Computational costs . .31
9.4.9 Models in evolutive systems .31
9.5 Data used .31
9.6 Functional correctness .32
10 Dataset-level taxonomy .32
10.1 General .32
10.2 Basic information . 33
10.3 Data provenance . 33
10.4 Data properties . 35
10.5 Dataset domain and purposes . 36
10.5.1 General . 36
10.5.2 Language data domain details . 36
10.5.3 Vision data domain details .37
10.6 Data biases and limitations .37
10.7 Societal considerations .37
10.8 Data preparation performed . 38
10.9 Dataset maintenance . 39
Annex A (informative) Examples of transparency templates.40
Annex B (informative) Examples of stakeholder roles in transparency . 41
Bibliography .43
© ISO/IEC 2025 – All rights reserved
iv
Foreword
ISO (the International Organization for Standardization) and IEC (the International Electrotechnical
Commission) form the specialized system for worldwide standardization. National bodies that are
members of ISO or IEC participate in the development of International Standards through technical
committees established by the respective organization to deal with particular fields of technical activity.
ISO and IEC technical committees collaborate in fields of mutual interest. Other international organizations,
governmental and non-governmental, in liaison with ISO and IEC, also take part in the work.
The procedures used to develop this document and those intended for its further maintenance are described
in the ISO/IEC Directives, Part 1. In particular, the different approval criteria needed for the different types
of document should be noted. This document was drafted in accordance with the editorial rules of the ISO/
IEC Directives, Part 2 (see www.iso.org/directives or www.iec.ch/members_experts/refdocs).
ISO and IEC draw attention to the possibility that the implementation of this document may involve the
use of (a) patent(s). ISO and IEC take no position concerning the evidence, validity or applicability of any
claimed patent rights in respect thereof. As of the date of publication of this document, ISO and IEC had not
received notice of (a) patent(s) which may be required to implement this document. However, implementers
are cautioned that this may not represent the latest information, which may be obtained from the patent
database available at www.iso.org/patents and https://patents.iec.ch. ISO and IEC shall not be held
responsible for identifying any or all such patent rights.
Any trade name used in this document is information given for the convenience of users and does not
constitute an endorsement.
For an explanation of the voluntary nature of standards, the meaning of ISO specific terms and expressions
related to conformity assessment, as well as information about ISO's adherence to the World Trade
Organization (WTO) principles in the Technical Barriers to Trade (TBT) see www.iso.org/iso/foreword.html.
In the IEC, see www.iec.ch/understanding-standards.
This document was prepared by Joint Technical Committee ISO/IEC JTC 1, Information technology,
Subcommittee SC 42, Artificial intelligence, in collaboration with the European Committee for Standardization
(CEN) Technical Committee CEN/CLC/JTC 21, Artificial Intelligence, in accordance with the Agreement on
technical cooperation between ISO and CEN (Vienna Agreement).
Any feedback or questions on this document should be directed to the user’s national standards
body. A complete listing of these bodies can be found at www.iso.org/members.html and
www.iec.ch/national-committees.
© ISO/IEC 2025 – All rights reserved
v
Introduction
The objectives of this document include:
— improving trustworthiness, accountability and communication among different AI stakeholders,
including partners in a supply chain, customers, users, society and regulators, by establishing a consistent
terminology around transparency of AI systems;
— providing AI stakeholders with information about different elements of transparency with their
relevance and possible limitations to different use cases and target audience;
— serving as a basis for developing technology-specific, industry-specific or region-specific standards for
transparency of AI systems.
Transparency for AI systems is the property of a system that stakeholders receive relevant information
about the system. This can include information on items such as system features, limitations, data, system
design and design choices (see ISO/IEC 22989:2022, 5.15.8).
Transparency enables relevant stakeholders to have access to information, so they can better understand
how an AI system is developed, deployed and can be used. For example, this allows an AI customer (such as
an AI user) of an AI system to determine if it is appropriate for their situation and supports an AI auditor in
assessing if the system complies with conformity requirements.
A standardized transparency taxonomy of AI systems helps people with different backgrounds to better
understand each other by using the same terminology. This in turn supports an improved understanding
of AI systems, and provides a foundation for developing interoperable and coherent transparency related
standards.
This document is structured as follows:
— Clause 5 provides an overview of this document and describes the concept of transparency of AI systems;
— Clause 6 discusses how transparency needs can vary depending on the AI system context and on the
stakeholders involved;
— Clause 7 discusses transparency items that describe the context of the AI system;
— Clause 8 pertains to describing transparency disclosures at the AI system level;
— Clause 9 focuses on documenting the internal functioning of the system;
— Clause 10 offers guidance on the documentation of datasets as stand-alone items.
AI systems often affect society and the environment (see Clause 7). However, it is also true that society and
the environment can affect the performance of an AI system. This can include various aspects, such as:
— environmental conditions that affect the functioning and longevity of an AI system;
— introduction or reinforcement of unwanted bias;
— organizational practices that can cause poor outcomes;
— effects such as concept drift (concept drift occurs when there is a change in the functional relationship
between the model’s input and output) and data drift (data drift is change in the statistical properties
and characteristics of the input data);
— formation of unwanted feedback loops (e.g. negative reinforcement of discriminatory patterns), which
can be especially problematic in the case of continuous learning.
While these are important items for consideration, a detailed analysis is not provided in this document.
Some of these aspects are further detailed in ISO/IEC 23894, ISO/IEC 27701, and ISO/IEC 29134.
© ISO/IEC 2025 – All rights reserved
vi
International Standard ISO/IEC 12792:2025(en)
Information technology — Artificial intelligence (AI) —
Transparency taxonomy of AI systems
1 Scope
This document specifies a taxonomy of information elements to assist AI stakeholders with identifying
and addressing the needs for transparency of AI systems. The document describes the semantics of the
information elements and their relevance to the various objectives of different stakeholders.
This document is applicable to any kind of organization and application involving an AI system.
2 Normative references
The following documents are referred to in the text in such a way that some or all of their content constitutes
requirements of this document. For dated references, only the edition cited applies. For undated references,
the latest edition of the referenced document (including any amendments) applies.
ISO/IEC 22989:2022, Information technology — Artificial intelligence — Artificial intelligence concepts and
terminology
3 Terms and definitions
For the purposes of this document, the terms and definitions given in ISO/IEC 22989 and the following apply.
ISO and IEC maintain terminology databases for use in standardization at the following addresses:
— ISO Online browsing platform: available at https:// www .iso .org/ obp
— IEC Electropedia: available at https:// www .electropedia .org/
3.1
attestation
issue of a statement, based on a decision, that fulfilment of specified requirements (3.14) has been
demonstrated
Note 1 to entry: The resulting statement is intended to convey the assurance that the specified requirements have
been fulfilled. Such an assurance does not, of itself, provide contractual or other legal guarantees.
Note 2 to entry: First-party attestation and third-party attestation are distinguished by the terms declaration,
certification and accreditation, but there is no corresponding term applicable to second-party attestation.
[SOURCE: ISO/IEC 17000:2020, 7.3; modified — removed 'referred to in this document as a "statement of
conformity"' from Note 1.]
3.2
carbon footprint
carbon footprint of a product
CFP
sum of greenhouse gas emissions and greenhouse gas removals in a product system, expressed as carbon
dioxide equivalents and based on a life cycle assessment using the single impact category of climate change
[SOURCE: ISO 14050:2020, 3.11.1; modified — added the preferred term "carbon footprint"]
© ISO/IEC 2025 – All rights reserved
3.3
confidential data
data to which only a limited number of persons have access and which are meant for restricted use
[SOURCE: ISO 5127:2017, 3.1.10.18; modified — removed Note 1 to entry]
3.4
conformity assessment body
body that performs conformity assessment activities, excluding accreditation
[SOURCE: ISO/IEC 17000:2020, 4.6]
3.5
data breach
compromise of security that leads to the accidental or unlawful destruction, loss, alteration, unauthorized
disclosure of, or access to protected data transmitted, stored, or otherwise processed
[SOURCE: ISO/IEC 27040:2024, 3.5.2]
3.6
data protection
implementation of administrative, technical, or physical measures to guard against the unauthorized
access to data
[SOURCE: ISO/IEC 2382:2015, 2126371; modified — removed all Notes to entry.]
3.7
digital fingerprint
bit sequence generated from a digital document using an algorithm that uniquely identifies the original
document
Note 1 to entry: Any digital document modification will produce a different fingerprint.
[SOURCE: ISO 14641:2018, 3.15]
3.8
evolutive system
AI system whose behaviour can change without an explicit action from its AI developer
Note 1 to entry: Examples of evolutive systems include AI systems with a storage component, AI systems that leverage
user-side actions and feedback, and AI systems involving continuous learning.
Note 2 to entry: Change of behaviour does not imply a change of goal but can result in a better or worse fulfilment of
the targeted goal.
3.9
feature
measurable property of an object or event with respect to a set of characteristics
Note 1 to entry: Features play a role in training and prediction.
Note 2 to entry: Features provide a machine-readable way to describe the relevant objects. As the algorithm will not
go back to the objects or events themselves, feature representations are designed to contain all useful information.
[SOURCE: ISO/IEC 23053:2022, 3.3.3; modified — removed domain tag]
© ISO/IEC 2025 – All rights reserved
3.10
life cycle impact assessment
LCIA
environmental impact assessment
phase of life cycle assessment aimed at understanding and evaluating the magnitude and significance of the
potential environmental impacts for a product system throughout the life cycle of the product
[SOURCE: ISO 14050:2020, 3.6.5; modified — added admitted term "environmental impact assessment"]
3.11
object of conformity assessment
object
entity to which specified requirements (3.14) apply
EXAMPLE Product, process, service, system, installation, project, data, design, material, claim, person, body or
organization, or any combination thereof.
Note 1 to entry: The term “body” is used in this definition to refer to conformity assessment bodies and accreditation
bodies. The term “organization” is used in its general meaning and may include bodies according to the context. The
more specific ISO/IEC Guide 2 definition of an organization as a body based on membership is not applicable to the
field of conformity assessment.
[SOURCE: ISO/IEC 17000:2020, 4.2; modified — "in this document" to "in this definition" in Note 1 to entry]
3.12
power usage effectiveness
PUE
ratio of the data centre total energy consumption to information technology equipment energy consumption,
calculated, measured or assessed across the same period
Note 1 to entry: Sometimes the inverse value of PUE, referred to as Data Centre Infrastructure Efficiency (DCiE), is used.
[SOURCE: ISO/IEC 30134-2:2016, 3.1.3]
3.13
scope of attestation
range or characteristics of objects of conformity assessment (3.11) covered by attestation (3.1)
[SOURCE: ISO/IEC 17000:2020, 7.4]
3.14
specified requirement
need or expectation that is stated
Note 1 to entry: Specified requirements can be stated in normative documents such as regulations, standards and
technical specifications.
Note 2 to entry: Specified requirements can be detailed or general.
[SOURCE: ISO/IEC 17000:2020, 5.1]
3.15
taxonomy
systematic classification of items into generic groups based on factors possibly common to several of the items
[SOURCE: ISO 14224:2016, 3.92]
3.16
water footprint
metric(s) that quantifies the potential environmental impacts related to water
[SOURCE: ISO 14050:2020, 3.10.1]
© ISO/IEC 2025 – All rights reserved
4 Symbols and abbreviated terms
AI artificial intelligence
ML machine learning
API application programming interface
URL universal resource locator
REST representational state transfer
JSON JavaScript object notation
GUI graphical user interface
YAML YAML ain’t markup language
5 Overview
5.1 General
Clause 5 provides an overview of this document and describes the concept of transparency of AI systems, in
particular, in relation to other trustworthiness characteristics.
5.2 Organization and usage of the taxonomy
This document describes a multi-faceted taxonomy of transparency for AI systems. Clause 6 discusses how
transparency needs can vary, depending on the AI system context and the role of different AI stakeholders. The
remainder of this document covers multiple levels and viewpoints on the system. It is organized in four parts:
— Clause 7 describes transparency taxonomy elements (referred to simply as "taxonomy elements")
informing on the context of the AI system (e.g. transparency needs in the case of labour stakeholders).
— Clause 8 pertains to describing transparency disclosures at the AI system level (e.g. its recommended
and precluded uses, or API documentation).
— Clause 9 focuses on the internal functioning of the system, at the level of model components and
algorithmic processes.
— Clause 10 offers guidance on the documentation of datasets as stand-alone items, considering that the
AI system’s life cycle involves those datasets (thereby also worth transparency considerations), but also
that datasets can be reused as is across several AI systems for different use cases.
For a given AI system, all four parts of the taxonomy (Clauses 7 to 10) can be considered, as they provide
complementary information. An illustration of this document's structure can be found in Figure 1.
© ISO/IEC 2025 – All rights reserved
Figure 1 — Overview of the document structure
Since the development of an AI system can involve different stakeholders (data provider, AI developer, AI
platform provider, etc.) and since an AI system can be integrated into a larger AI system in a modular way,
this taxonomy is also designed to be modular. In particular, the documentation of an AI system can include
references to the documentation (entire, or only specific parts) of another AI system.
For example, in the case of general-purpose models released as open-source assets, it can be useful to
document the models according to Clause 9 but also Clause 8, in order to cover recommended and precluded
uses. Then another organization, when integrating the general-purpose model as an internal component of a
more complex AI system, can produce a new documentation for that AI system, with:
— its own documentation according to Clause 8 (e.g. recommended and precluded uses of the whole AI
system);
— a reference to the general-purpose model’s documentation according to Clause 9;
— a new section, documented according to Clause 9, for any custom model developed for that AI system;
— but discarding the Clause 8 information on the general-purpose model if deemed irrelevant in the context
of that particular AI system. An example of irrelevant information in this context is the recommended
or precluded uses of the general-purpose model, when it includes considerations pertaining to alternate
uses that are beyond the one use that is made of the general-purpose model within that AI system.
5.3 Constraints on transparency disclosures
Taxonomy elements described in all four parts of this document (Clauses 7 to 10) are elements that are useful
to consider in at least some cases, but do not necessarily apply to all use cases and systems. In particular:
— There can be taxonomy elements for which disclosure is not appropriate in a given use case. For
example, releasing the source code is not appropriate if it includes proprietary code (8.6). Indication
of who funded a dataset's creation can be impossible if the dataset has been created by volunteers or if
disclosure is prevented by contractual obligations (10.3). Similarly, revealing how much data labelers
were remunerated can run counter to privacy concerns (10.8).
— There can be taxonomy elements that only exist for a given type of system. For example, information on
the language variety is not necessarily applicable to a computer vision system (10.5).
© ISO/IEC 2025 – All rights reserved
— There can be taxonomy elements that describe processes that are not possible or not appropriate in
a given use case. For example, comparative evaluation with a similar system can be impossible when
creating a new type of AI system that has no existing alternative (8.7.4).
— Similarly, considerations for diversity and inclusion are not necessarily appropriate when producing a
dataset to be representative of one specific part of the population, such as elderly females with a speech
disorder (10.6).
— To determine the usefulness of transparency elements, an organization can also consider the costs and
benefits associated with each of the relevant transparency elements, in order to manage potential trade-
offs and define the appropriate level of transparency needed for its specific use case. For example, an
organization can consider whether transparency elements can in some cases cause more harm than
benefits to individuals and societies, and whether disclosures can be in breach of applicable laws and
regulations or contractual requirements.
5.4 Concept of transparency
Transparency is a broad concept, but within this document, the focus lies primarily on transparency
as the property of a system and, to a lesser degree, on transparency as the property of an organization.
Transparency for an AI system means that appropriate information about the system is made available
to relevant stakeholders (ISO/IEC 22989:2022, 5.15.8). In contrast, the transparency of an organization
(referred to as organizational transparency in this document) is related to how appropriate activities and
decisions are communicated to relevant stakeholders (ISO/IEC TR 24028:2020, 10.3.1).
Organizational transparency is relevant in so far as organizational principles and processes affect an AI
system at various stages in its life cycle as described in ISO/IEC 22989:2022, Clause 6.
Some examples of appropriate information for transparency disclosures are: goals, known limitations,
design choices and assumptions, features, models, algorithms, training methods, details of used data
and quality assurance processes (for the AI system, for data used in training or evaluation). However,
transparency needs can be different for different stakeholders and vary from one use case to another.
Therefore, appropriate information to make available as part of AI system transparency is determined not
only by who the target stakeholders are, but also depends on the use case. For example, an AI auditor or
regulator can have transparency needs that differ in aspect or level of detail from the transparency needs
of an AI user. For some use cases, an audit can be unnecessary; the transparency needs of individuals and
societies are different when using AI systems to recommend a movie, to predict turbine repairs or to identify
criminals as part of a police investigation. Additionally, for a given taxonomy element, such as the model
used, transparency can be achieved for some stakeholders by sharing the documentation on the choice of
model architecture used, while for other stakeholders, sharing internal states of the model, such as model
parameters, can be appropriate.
The degree to which the information is useful, meaningful, truthful, comprehensive, accessible and
understandable is also relevant to whether the information is appropriate. This varies according to the
use cases and the type of stakeholders. For example, a non-expert user does not need the same kind of
understandable information as a technical forensic investigator. The degree to which a stakeholder finds
certain information accessible, especially when requesting access to the data, the code or the models, can
potentially also run counter to security, privacy or confidentiality requirements. In such cases, to consider
whether the transparency information can be provided to stakeholders downstream in the AI system life
cycle while protecting sensitive information about upstream components, it can be necessary to secure,
protect or use the information in accordance with internal organizational policies for handling of intellectual
property rights, contractual obligation, confidential information or trade secrets, to identify any trade-offs.
Beyond the definitions used in this document, the concept of transparency can also be viewed as a
characterization of the presentation of information, or as an openness and willingness to communicate about
actions and decisions. See Figure 2 for a high-level overview of the various core concepts of transparency
and the relevant International Standards.
© ISO/IEC 2025 – All rights reserved
Figure 2 — Relevant high-level concepts of transparency
Transparency overlaps with, and in many cases is a prerequisite for, other AI system properties, including
reproducibility, observability, verifiability, usability, explainability and interpretability, accountability,
quality and trustworthiness (e.g. ISO/IEC 27036-1, ISO/IEC 27037, ISO/IEC 25059, ISO/IEC TR 24028).
For example, when ethical and societal concerns are to be considered with the use of AI systems,
transparency and explainability are key for the acceptance of AI systems. Transparency in an AI system
enables AI stakeholders to see how the AI system works, evaluate its functionality and comprehend its
strengths and limitations. This helps develop AI systems that benefit society and address ethical and societal
concerns (see ISO/IEC TR 24368).
From a software quality perspective, transparency is a sub-characteristic of usability in terms of the
software quality model as defined in ISO/IEC 25059. It helps potential users to choose an AI system fitting
their requirements, improving relevant stakeholders’ knowledge about the applicability and the limitations
of an AI system, as well as assisting with its explainability. Transparency is also a sub-characteristic of
satisfaction in the quality-in-use model (see ISO/IEC 25059).
From an explainability perspective, transparency is complementary and useful to explainability. For
example, some explainability methods require certain degrees of transparency to access inner states
or intermediate results from an AI system, or to acquire information on the models used in AI systems
(see ISO/IEC TS 6254).
6 Stakeholders’ needs and transparency objectives
6.1 General
Transparency is a contributing characteristic to the trustworthiness of an AI system. Establishing and
maintaining the trustworthiness of an AI system involves considering organizations, as well as individuals
and groups of individuals as stakeholders. Such considerations include stakeholders that do not necessarily
have a priori needs or expectations of the system. Those needs and expectations are likely to be triggered
by a transparency disclosure (e.g. data subjects who are not aware that their data are being used, until
informed). As is the case for other AI system trustworthiness characteristics, the benefits of transparency
can be improved by being clearly contextualized, and by clarifying which stakeholders aim to establish and
maintain the trust of which other stakeholders in relation to specific aspects of AI system development and
use (see ISO/IEC TR 24028:2020, 8.1.1).
Transparency involves the communication of appropriate information to stakeholders in a comprehensive,
accessibl
...
Norme
internationale
ISO/IEC 12792
Première édition
Technologies de l'information —
2025-11
Intelligence artificielle (IA) —
Taxonomie pour la transparence
des systèmes d’IA
Information technology — Artificial intelligence (AI) —
Transparency taxonomy of AI systems
Numéro de référence
DOCUMENT PROTÉGÉ PAR COPYRIGHT
© ISO/IEC 2025
Tous droits réservés. Sauf prescription différente ou nécessité dans le contexte de sa mise en œuvre, aucune partie de cette
publication ne peut être reproduite ni utilisée sous quelque forme que ce soit et par aucun procédé, électronique ou mécanique,
y compris la photocopie, ou la diffusion sur l’internet ou sur un intranet, sans autorisation écrite préalable. Une autorisation peut
être demandée à l’ISO à l’adresse ci-après ou au comité membre de l’ISO dans le pays du demandeur.
ISO copyright office
Case postale 401 • Ch. de Blandonnet 8
CH-1214 Vernier, Genève
Tél.: +41 22 749 01 11
E-mail: copyright@iso.org
Web: www.iso.org
Publié en Suisse
© ISO/IEC 2025 – Tous droits réservés
ii
Sommaire Page
Avant-propos .v
Introduction .vi
1 Domaine d'application . 1
2 Références normatives . 1
3 Termes et définitions . 1
4 Symboles et abréviations . 4
5 Vue d'ensemble . 4
5.1 Généralités .4
5.2 Organisation et utilisation de la taxonomie .4
5.3 Contraintes relatives aux divulgations aux fins de la transparence .6
5.4 Concept de transparence .6
6 Besoins et objectifs en matière de transparence des parties prenantes . 8
6.1 Généralités .8
6.2 Buts et objectifs en matière de transparence .9
6.3 Rôles de certaines parties prenantes en matière de transparence .10
7 Taxonomie au niveau du contexte .12
7.1 Généralités . 12
7.2 Contexte sociétal . 12
7.2.1 Généralités . 12
7.2.2 Pratiques de travail . .16
7.2.3 Besoins des consommateurs.17
7.3 Contexte environnemental .18
7.3.1 Généralités .18
7.3.2 Divulgations particulières relatives à l'environnement .18
7.3.3 Divulgations organisationnelles . 20
8 Taxonomie au niveau du système .21
8.1 Généralités .21
8.2 Informations de base .21
8.3 Processus organisationnels . 22
8.3.1 Généralités . 22
8.3.2 Gouvernance . 22
8.3.3 Système de management . 23
8.3.4 Gestion des risques . 23
8.3.5 Management de la qualité . 23
8.4 Applicabilité .24
8.4.1 Généralités .24
8.4.2 Finalités .24
8.4.3 Capacités .24
8.4.4 Limites fonctionnelles .24
8.4.5 Utilisations recommandées .24
8.4.6 Utilisations exclues .24
8.5 Vue d'ensemble des caractéristiques techniques . 25
8.5.1 Généralités . 25
8.5.2 Entrées et sorties attendues . 25
8.5.3 Données de production . 25
8.5.4 Journalisation et stockage . 25
8.5.5 Décomposition du système . 26
8.5.6 Interface de programmation d'application . 26
8.5.7 Facteurs humains . 26
8.5.8 Méthodes de déploiement .27
8.5.9 Gestion des configurations .27
8.6 Accès aux éléments internes .27
© ISO/IEC 2025 – Tous droits réservés
iii
8.7 Qualité et performances . 28
8.7.1 Généralités . 28
8.7.2 Processus de vérification et de validation . 28
8.7.3 Mesures de l'exécution . 29
8.7.4 Comparaison avec les autres systèmes . 29
9 Taxonomie au niveau du modèle .29
9.1 Généralités . 29
9.2 Informations de base . 30
9.3 Influence réciproque de l'utilisation et du modèle . 30
9.3.1 Traitement effectué par le modèle . 30
9.3.2 Dépendance à d'autres modèles . 30
9.3.3 Cohérence avec les finalités prévues du système d'IA . 30
9.4 Caractéristiques techniques .31
9.4.1 Type de technologie utilisé.31
9.4.2 Caractéristiques extraites des données d'entrée .31
9.4.3 Algorithme utilisé pour le traitement .31
9.4.4 Procédure de construction du modèle .31
9.4.5 Hyperparamètres .32
9.4.6 Formats d'entrée et de sortie . 33
9.4.7 Matériel de calcul . 33
9.4.8 Coûts de calcul . 34
9.4.9 Modèles dans les systèmes évolutifs . 34
9.5 Données utilisées . 34
9.6 Exactitude fonctionnelle . 35
10 Taxonomie au niveau de l’ensemble de données .36
10.1 Généralités . 36
10.2 Informations de base . 36
10.3 Provenance des données.37
10.4 Propriétés des données. 39
10.5 Domaine et finalités de l'ensemble de données . 40
10.5.1 Généralités . 40
10.5.2 Détails du domaine des données linguistiques . 40
10.5.3 Détails du domaine des données visuelles . 40
10.6 Biais et limites des données .41
10.7 Considérations sociétales .41
10.8 Préparation des données réalisée .42
10.9 Maintenance de l'ensemble de données .43
Annexe A (informative) Exemples de modèles de transparence .44
Annexe B (informative) Exemples de rôles des parties prenantes dans la transparence .45
Bibliographie . 47
© ISO/IEC 2025 – Tous droits réservés
iv
Avant-propos
L'ISO (Organisation internationale de normalisation) et l'IEC (Commission électrotechnique internationale)
forment le système spécialisé de la normalisation mondiale. Les organismes nationaux membres de l'ISO
ou de l'IEC participent au développement de Normes Internationales par l'intermédiaire des comités
techniques créés par l'organisation concernée afin de s'occuper des domaines particuliers de l'activité
technique. Les comités techniques de l'ISO et de l'IEC collaborent dans des domaines d'intérêt commun.
D'autres organisations internationales, gouvernementales et non gouvernementales, en liaison avec l'ISO et
l'IEC participent également aux travaux.
Les procédures utilisées pour élaborer le présent document et celles destinées à sa mise à jour sont décrites
dans les Directives ISO/IEC, Partie 1. Il convient, en particulier de prendre note des différents critères
d'approbation requis pour les différents types de document. Le présent document a été rédigé conformément
aux règles de rédaction données dans les Directives ISO/IEC, Partie 2 (voir www.iso.org/directives ou
www.iec.ch/members_experts/refdocs).
L'ISO et l'IEC attirent l'attention sur le fait que la mise en application du présent document peut entraîner
l'utilisation d'un ou de plusieurs brevets. L'ISO et L'IEC ne prennent pas position quant à la preuve, à la
validité et à l'applicabilité de tout droit de propriété revendiqué à cet égard. À la date de publication du
présent document, l'ISO et l'IEC n'avaient pas reçu notification qu'un ou plusieurs brevets pouvaient être
nécessaires à sa mise en application. Toutefois, il y a lieu d'avertir les responsables de la mise en application
du présent document que des informations plus récentes sont susceptibles de figurer dans la base de données
de brevets, disponible à l'adresse www.iso.org/brevets et https://patents.iec.ch. L'ISO et l'IEC ne sauraient
être tenues pour responsables de ne pas avoir identifié tout ou partie de tels droits de brevet.
Les appellations commerciales éventuellement mentionnées dans le présent document sont données pour
information, par souci de commodité, à l'intention des utilisateurs et ne sauraient constituer un engagement.
Pour une explication de la nature volontaire des normes, la signification des termes et expressions
spécifiques de l'ISO liés à l'évaluation de la conformité, ou pour toute information au sujet de l'adhésion de
l'ISO aux principes de l'Organisation mondiale du commerce (OMC) concernant les obstacles techniques au
commerce (OTC), voir www.iso.org/avant-propos. Pour l'IEC, voir www.iec.ch/understanding-standards.
Le présent document a été élaboré par le comité technique ISO/IEC JTC 1, Technologies de l'information, sous-
comité SC 42, Intelligence artificielle, en collaboration avec le comité technique CEN/CLC/JTC 21, Intelligence
artificielle, du Comité européen de normalisation (CEN), conformément à l'Accord de coopération technique
entre l'ISO et le CEN (Accord de Vienne).
Il convient que l’utilisateur adresse tout retour d’information ou toute question concernant le présent
document à l’organisme national de normalisation de son pays. Une liste exhaustive desdits organismes se
trouve aux adresses www.iso.org/fr/members.html et www.iec.ch/national-committees.
© ISO/IEC 2025 – Tous droits réservés
v
Introduction
Les objectifs du présent document incluent:
— améliorer la crédibilité, la redevabilité et la communication entre les différentes parties prenantes de
l'IA, y compris les partenaires d'une chaîne d'approvisionnement, les clients, les utilisateurs, la société et
les régulateurs, en établissant une terminologie cohérente autour de la transparence des systèmes d'IA;
— fournir aux parties prenantes de l'IA des informations sur les différents éléments de transparence, leur
pertinence et leurs éventuelles limites en fonction des cas d'utilisation et du public cible;
— servir de base à l'élaboration de normes spécifiques à la technologie, au secteur d'activité ou à la région
pour la transparence des systèmes d'IA.
Dans les systèmes d'IA, la transparence est la propriété d'un système selon laquelle les parties prenantes
reçoivent des informations pertinentes sur ce système. Cela peut inclure des informations sur des éléments
tels que les caractéristiques du système, les limites, les données, la conception du système et les choix de
conception (voir ISO/IEC 22989:2022, 5.15.8).
La transparence permet aux parties prenantes concernées d'avoir accès à l'information, de sorte qu'elles
peuvent mieux comprendre comment un système d'IA est développé, déployé et peut être utilisé. Par exemple,
cela permet aux clients d'IA (comme les utilisateurs d'IA) d'un système d'IA de déterminer si celui-ci est
adapté à leur situation, et aide les auditeurs d'IA à évaluer si le système répond aux exigences de conformité.
Une taxonomie normalisée pour la transparence des systèmes d'IA aide les personnes de milieux différents
à mieux se comprendre mutuellement en utilisant la même terminologie. Cela contribue ensuite à une
meilleure compréhension des systèmes d'IA et fournit une base pour l'élaboration de normes de transparence
interopérables et cohérentes.
Le présent document est structuré comme suit:
— l'Article 5 fournit une vue d'ensemble du présent document et décrit le concept de transparence des
systèmes d'IA;
— l'Article 6 décrit comment les besoins en matière de transparence peuvent varier en fonction du contexte
du système d'IA et des parties prenantes concernées;
— l'Article 7 traite des éléments de transparence qui décrivent le contexte du système d'IA;
— l'Article 8 concerne le fait de décrire des divulgations aux fins de la transparence au niveau du système d'IA;
— l'Article 9 est axé sur le fait de documenter le fonctionnement interne du système;
— l'Article 10 fournit des recommandations relatives à la documentation des ensembles de données en tant
qu'éléments autonomes.
Les systèmes d'IA ont souvent une incidence sur la société et l'environnement (voir l'Article 7). Cependant, il
est également vrai que la société et l'environnement peuvent avoir une incidence sur les performances d'un
système d'IA. Cela peut inclure divers aspects, tels que:
— les conditions environnementales qui ont une incidence sur le fonctionnement et la longévité d'un
système d'IA;
— l'introduction ou le renforcement d'un biais indésirable;
— les pratiques organisationnelles qui peuvent entraîner de mauvais résultats;
— les effets comme la dérive conceptuelle (la dérive conceptuelle se produit lorsqu'il y a un changement
dans la relation fonctionnelle entre l'entrée et la sortie du modèle) et la dérive des données (la dérive des
données est un changement dans les propriétés statistiques et les caractéristiques des données d'entrée);
© ISO/IEC 2025 – Tous droits réservés
vi
— la formation de boucles de retour d'information indésirables (par exemple, renforcement négatif de
modèles discriminatoires), qui peut être particulièrement problématique dans le cas de l'apprentissage
continu.
Bien qu'il s'agisse de points importants à prendre en considération, le présent document ne fournit
pas d’analyse détaillée. Certains de ces aspects sont détaillés dans l'ISO/IEC 23894, l'ISO/IEC 27701 et
l'ISO/IEC 29134.
© ISO/IEC 2025 – Tous droits réservés
vii
Norme internationale ISO/IEC 12792:2025(fr)
Technologies de l'information — Intelligence artificielle (IA)
— Taxonomie pour la transparence des systèmes d’IA
1 Domaine d'application
Le présent document spécifie une taxonomie des éléments d'information afin d'aider les parties prenantes de
l'IA à identifier et à traiter les besoins de transparence des systèmes d'IA. Le document décrit la sémantique
des éléments d'information et leur pertinence par rapport aux différents objectifs des différentes parties
prenantes.
Le présent document s'applique à tout type d'organisation et d'application impliquant un système d'IA.
2 Références normatives
Les documents suivants sont cités dans le texte de sorte qu'ils constituent, pour tout ou partie de leur
contenu, des exigences du présent document. Pour les références datées, seule l'édition citée s'applique. Pour
les références non datées, la dernière édition du document de référence s'applique (y compris les éventuels
amendements).
ISO/IEC 22989:2022, Technologies de l'information — Intelligence artificielle — Concepts et terminologie
relatifs à l'intelligence artificielle
3 Termes et définitions
Pour les besoins du présent document, les termes et les définitions de l'ISO/IEC 22989 ainsi que les suivants,
s'appliquent.
L'ISO et l'IEC tiennent à jour des bases de données terminologiques destinées à être utilisées en normalisation,
consultables aux adresses suivantes:
— ISO Online browsing platform: disponible à l'adresse https:// www .iso .org/ obp
— IEC Electropedia: disponible à l'adresse https:// www .electropedia .org/
3.1
attestation
délivrance d'une affirmation basée sur une décision indiquant que le respect des exigences spécifiées (3.14) a
été démontré
Note 1 à l'article: L’affirmation qui en résulte est destinée à donner l’assurance que les exigences spécifiées ont été
respectées. Une telle assurance ne constitue pas en soi une garantie contractuelle ou autre garantie légale.
Note 2 à l'article: L’attestation par première partie et l’attestation par tierce partie se distinguent par les termes déclaration,
certification et accréditation, mais aucun terme correspondant n’est applicable à l’attestation par seconde partie.
[SOURCE: ISO/IEC 17000:2020, 7.3; modifié: «désignée dans le présent document sous le nom de «affirmation
de conformité»» supprimé de la Note 1.]
© ISO/IEC 2025 – Tous droits réservés
3.2
empreinte carbone
empreinte carbone d'un produit
ECP
somme des émissions de gaz à effet de serre et des suppressions de gaz à effet de serre dans un système de
produits, exprimée en équivalent-dioxyde de carbone et basée sur une analyse du cycle de vie prenant pour
seule catégorie d’impact le changement climatique
[SOURCE: ISO 14050:2020, 3.11.1; modifié — ajout du terme privilégié «empreinte carbone »]
3.3
données confidentielles
données auxquelles seul un nombre limité de personnes a accès et qui sont destinées à une utilisation
restreinte
[SOURCE: ISO 5127:2017, 3.1.10.18; modifié — suppression de la Note 1 à l'article]
3.4
organisme d'évaluation de la conformité
organisme qui réalise des activités d’évaluation de la conformité, à l’exclusion de l’accréditation
[SOURCE: ISO/IEC 17000:2020, 4.6]
3.5
violation de données
compromission de sécurité qui entraîne la destruction accidentelle ou illégale, la perte, l'altération, la
divulgation non autorisée ou l'accès à des données protégées transmises, stockées, ou soumises à un
quelconque autre traitement
[SOURCE: ISO/IEC 27040:2024, 3.5.2]
3.6
protection des données
mise en vigueur d'un ensemble de mesures administratives, techniques et physiques pour interdire tout
accès non autorisé à des données
[SOURCE: ISO/IEC 2382:2015, 2126371; modifié — suppression de toutes les Notes à l'article.]
3.7
empreinte numérique
séquence binaire générée à partir d'un document numérique au moyen d'un algorithme qui identifie de
manière unique le document original
Note 1 à l'article: Toute modification d’un document numérique produit une empreinte numérique différente.
[SOURCE: ISO 14641:2018, 3.15]
3.8
système évolutif
système d'IA dont le comportement peut changer sans action explicite de la part de son développeur d'IA
Note 1 à l'article: Les systèmes d'IA avec une composante de stockage, les systèmes d'IA qui exploitent les actions et les
retours d'informations côté utilisateur et les systèmes d'IA qui font appel à l’apprentissage continu sont des exemples
de systèmes évolutifs.
Note 2 à l'article: Un changement de comportement n'implique pas un changement d'objectif, mais il peut conduire à
une meilleure ou à une moins bonne réalisation de l'objectif visé.
3.9
caractéristique
propriété mesurable d'un objet ou d'un événement par rapport à un ensemble de caractéristiques
Note 1 à l'article: Les caractéristiques jouent un rôle dans l'entraînement et la prédiction.
© ISO/IEC 2025 – Tous droits réservés
Note 2 à l'article: Les caractéristiques offrent une manière de décrire les objets pertinents qui est lisible par
une machine. Étant donné que l'algorithme ne reviendra pas sur les objets ou les événements eux-mêmes, les
représentations des caractéristiques sont conçues pour contenir toutes les informations utiles.
[SOURCE: ISO/IEC 23053:2022, 3.3.3; modifié — suppression de la balise de domaine < apprentissage
machine > ]
3.10
évaluation de l’impact du cycle de vie
EICV
évaluation de l'impact sur l'environnement
phase de l’analyse du cycle de vie destinée à comprendre et évaluer l’ampleur et l’importance des impacts
environnementaux potentiels pour un système de produits au cours du cycle de vie du produit
[SOURCE: ISO 14050:2020, 3.6.5; modifié — ajout du terme admis «évaluation de l'impact sur
l'environnement».]
3.11
objet de l’évaluation de la conformité
objet
entité à laquelle les exigences spécifiées (3.14) s'appliquent
EXEMPLE Produit, processus, service, système, installation, projet, données, conception, matériau, allégation,
personne, organisme ou organisation, ou toute combinaison de ces derniers.
Note 1 à l'article: Le terme «organisme» est employé dans cette définition en référence à des organismes d’évaluation
de la conformité et des organismes d’accréditation. Le terme «organisation» est employé avec son sens générique
et peut inclure les organismes ci-dessus, selon le contexte. La définition plus spécifique de le Guide ISO/IEC 2 d'une
organisation en tant qu'organisme basé sur l'adhésion de membres ne s'applique pas dans le domaine de l'évaluation
de la conformité.
[SOURCE: ISO/IEC 17000:2020, 4.2; modifié — remplacement de «dans le présent document» par «dans cette
définition» dans la Note 1 à l'article]
3.12
efficacité d'utilisation de la puissance
PUE
rapport de la consommation énergétique totale d'un centre de données sur la consommation énergétique
des équipements informatiques, calculées, mesurées ou évaluées pendant la même période de temps
Note 1 à l'article: C'est parfois la valeur inverse du PUE qui est utilisée. Il s'agit alors du rendement de l'infrastructure
du centre de données (DCiE).
[SOURCE: ISO/IEC 30134-2:2016, 3.1.3]
3.13
portée d’attestation
étendue ou caractéristiques des objets de l'évaluation de la conformité (3.11) couverts par l'attestation (3.1)
[SOURCE: ISO/IEC 17000:2020, 7.4]
3.14
exigence spécifiée
besoin ou attente formulé
Note 1 à l'article: Les exigences spécifiées peuvent être formulées dans des documents normatifs tels que les
règlements, les normes et les spécifications techniques.
Note 2 à l'article: Les exigences spécifiées peuvent être détaillées ou générales.
[SOURCE: ISO/IEC 17000:2020, 5.1]
© ISO/IEC 2025 – Tous droits réservés
3.15
taxonomie
classification systématique des entités dans des groupes génériques en fonction d’éventuels facteurs
communs à plusieurs entités
[SOURCE: ISO 14224:2016, 3.92]
3.16
empreinte eau
indicateur(s) quantifiant les impacts environnementaux potentiels relatifs à l’eau
[SOURCE: ISO 14050:2020, 3.10.1]
4 Symboles et abréviations
IA intelligence artificielle
API interface de programmation d'application
GUI interface utilisateur graphique
JSON notation d'objet JavaScript [JavaScript object notation]
ML apprentissage machine
REST transfert d'état représentationnel
URL localisateur universel de ressource
YAML YAML Ain't Markup Language
5 Vue d'ensemble
5.1 Généralités
L'Article 5 fournit une vue d'ensemble du présent document et décrit le concept de transparence des systèmes
d'IA, en particulier par rapport aux autres caractéristiques de crédibilité.
5.2 Organisation et utilisation de la taxonomie
Le présent document décrit une taxonomie multifacette pour la transparence pour les systèmes d'IA.
L'Article 6 décrit comment les besoins de transparence peuvent varier selon le contexte du système d'IA et
le rôle des différentes parties prenantes de l'IA. Le reste du présent document couvre plusieurs niveaux et
points de vue sur le système. Il est organisé en quatre parties:
— l'Article 7 décrit les éléments de taxonomie pour la transparence (appelés simplement «éléments de
taxonomie ») qui donnent des informations sur le contexte du système d'IA (par exemple, les besoins de
transparence pour les parties prenantes dans le domaine du travail);
— l'Article 8 concerne le fait de décrire des divulgations aux fins de la transparence au niveau du système
d'IA (par exemple, ses utilisations recommandées et exclues, ou la documentation de l'API);
— l'Article 9 est axé sur le fonctionnement interne du système, au niveau des composants du modèle et des
processus algorithmiques;
— l'Article 10 fournit des recommandations relatives à la documentation des ensembles de données en
tant qu'éléments autonomes, en tenant compte du fait que le cycle de vie du système d’IA fait appel à ces
ensembles de données (il convient donc également de prendre en compte la transparence), mais aussi que
© ISO/IEC 2025 – Tous droits réservés
les ensembles de données peuvent être réutilisés tels quels dans plusieurs systèmes d'IA pour différents
cas d'utilisation.
Pour un système d'IA donné, les quatre parties de la taxonomie (Articles 7 à 10) peuvent être prises en
compte, car elles fournissent des informations complémentaires. La Figure 1 contient une illustration de la
structure du présent document.
Figure 1 — Vue d’ensemble de la structure du document
Étant donné que le développement d'un système d'IA peut impliquer différentes parties prenantes
(fournisseur de données, développeur d'IA, fournisseur de plateforme d'IA, etc.) et qu'un système d'IA peut
être intégré de manière modulaire dans un système d'IA plus vaste, la présente taxonomie est également
conçue pour être modulaire. En particulier, la documentation d'un système d'IA peut inclure des références
à la documentation (entière ou seulement certaines parties) d'un autre système d’IA.
Par exemple, dans le cas de modèles génériques mis à disposition en tant que ressources libres, il peut
être utile de documenter les modèles conformément à l'Article 9 mais aussi à l'Article 8 afin de couvrir les
utilisations recommandées et exclues. Ensuite, lorsqu'une autre organisation intègre le modèle générique en
tant que composante interne d'un système d'IA plus complexe, il peut produire une nouvelle documentation
pour ce système d'IA, avec:
— sa propre documentation conformément à l'Article 8 (par exemple, les utilisations recommandées et
exclues de l'ensemble du système d'IA);
— une référence à la documentation du modèle générique conformément à l'Article 9;
— une nouvelle section, documentée conformément à l'Article 9, pour chaque modèle personnalisé développé
pour ce système d'IA;
— mais en éliminant les informations de l'Article 8 concernant le modèle générique s'il est considéré non
pertinent dans le contexte de ce système d'IA particulier. Un exemple d'information non pertinente
dans ce contexte est l'utilisation recommandée ou exclue du modèle générique, lorsqu'il comprend des
considérations relatives à d'autres utilisations qui vont au-delà de l'utilisation unique prévue pour le
modèle générique dans ce système d'IA.
© ISO/IEC 2025 – Tous droits réservés
5.3 Contraintes relatives aux divulgations aux fins de la transparence
Les éléments de taxonomie décrits dans les quatre parties du présent document (Articles 7 à 10) sont des
éléments qu'il est utile de prendre en compte dans certains cas au moins, mais qui ne s'appliquent pas
nécessairement à tous les cas d'utilisation et à tous les systèmes. En particulier:
— il peut exister des éléments de taxonomie dont la divulgation n'est pas appropriée dans un cas d'utilisation
donné. Par exemple, la publication du code source n'est pas appropriée s'il contient un code propriétaire
(8.6). L'indication de la ou des personnes qui ont financé la création d'un ensemble de données peut être
impossible si l'ensemble de données a été créé par des volontaires ou si la divulgation est empêchée par des
obligations contractuelles (10.3). De la même manière, révéler le montant de la rémunération des étiqueteurs
de données peut aller à l'encontre des préoccupations liées à la protection de la vie privée (10.8);
— il peut exister des éléments de taxonomie qui n'existent que pour un type de système donné. Par exemple,
les informations sur la variété linguistique ne sont pas nécessairement applicables à un système de vision
artificielle (10.5);
— il peut exister des éléments de taxonomie qui décrivent des processus qui ne sont pas possibles ou
appropriés dans un cas d'utilisation donné. Par exemple, l’évaluation comparative avec un système
similaire peut être impossible lors de la création d'un nouveau type de système d'IA auquel il n’existe
aucune alternative (8.7.4);
— de même, les considérations relatives à la diversité et à l'inclusion ne sont pas nécessairement appropriées
pour produire un ensemble de données représentatif d'une partie spécifique de la population, comme les
femmes âgées souffrant de troubles de la parole (10.6);
— pour déterminer l'utilité des éléments de transparence, une organisation peut également prendre en
compte les coûts et avantages associés à chacun des éléments de transparence pertinents, afin de gérer
les éventuels compromis et de définir le niveau de transparence approprié nécessaire pour son cas
d'utilisation spécifique. Par exemple, une organisation peut déterminer si les éléments de transparence
peuvent, dans certains cas, causer plus de dommages que d'avantages pour les individus et les sociétés,
et si les divulgations peuvent enfreindre les lois et réglementations applicables ou les exigences
contractuelles.
5.4 Concept de transparence
La transparence est un concept large, mais dans le présent document, l'accent est mis principalement sur la
transparence en tant que propriété d'un système et, dans une moindre mesure, sur la transparence en tant
que propriété d'une organisation. La transparence d'un système d'IA signifie que les informations adéquates
à propos du système sont mises à la disposition des parties prenantes concernées (ISO/IEC 22989:2022,
5.15.8). En revanche, la transparence d'une organisation (appelée transparence organisationnelle dans le
présent document) est liée à la manière dont les activités et les décisions appropriées sont communiquées
aux parties prenantes concernées (ISO/IEC TR 24028:2020, 10.3.1).
La transparence organisationnelle est pertinente dans la mesure où les principes et processus
organisationnels ont une incidence sur un système d'IA à différentes étapes de son cycle de vie, selon la
description de l'ISO/IEC 22989:2022, Article 6.
Voici quelques exemples d'informations appropriées pour les divulgations aux fins de la transparence: les
objectifs, les limites connues, les choix et hypothèses de conception, les caractéristiques, les modèles, les
algorithmes, les méthodes d'entraînement, les détails des données utilisées et des processus d'assurance
de la qualité (dans le cas du système d'IA, pour les données utilisées dans l'entraînement ou l'évaluation).
Cependant, les besoins en matière de transparence peuvent être différents pour différentes parties
prenantes et varier d'un cas d'utilisation à l'autre. Par conséquent, les informations appropriées à mettre à
disposition dans le cadre de la transparence du système d'IA sont non seulement déterminées par l'identité
des parties prenantes concernées, mais elle dépendent également du cas d'utilisation. Par exemple, les
besoins de transparence d’un auditeur ou d’un régulateur de l'IA peuvent être différents dans leur aspect
ou leur niveau de détail par rapport aux besoins de transparence d'un utilisateur de l'IA. Dans certains cas
d'utilisation, un audit peut être inutile; les besoins en matière de transparence des individus et des sociétés
sont différents selon qu'ils utilisent des systèmes d'IA pour recommander un film, prévenir des réparations
© ISO/IEC 2025 – Tous droits réservés
de turbines ou identifier des criminels dans le cadre d'une enquête policière. De plus, pour un élément
de taxonomie donné, comme le modèle utilisé, la transparence peut être atteinte pour certaines parties
prenantes en partageant la documentation sur le choix de l'architecture de modèle utilisée, tandis que pour
d'autres parties prenantes, le partage des états internes du modèle, comme les paramètres du modèle, peut
être approprié.
La mesure dans laquelle les informations sont utiles, significatives, vraies, exhaustives, accessibles et
compréhensibles est également pertinente pour déterminer si les informations sont appropriées. Elle varie
en fonction des cas d'utilisation et du type de parties prenantes. Par exemple, un utilisateur non expert n'a pas
besoin du même type d'informations compréhensibles qu'un enquêteur de la police technique scientifique.
La mesure dans laquelle une partie prenante trouve certaines info
...










Questions, Comments and Discussion
Ask us and Technical Secretary will try to provide an answer. You can facilitate discussion about the standard in here.
Loading comments...