Dans les décennies à venir, l’intelligence artificielle (IA) devrait bouleverser, dans les décennies à venir, le fonctionnement de notre économie et plus largement de la société. Ce constat avait, il y a un an, conduit l’Union européenne et ses États membres à s’engager sur un plan prévoyant la mobilisation d’investissements privés et publics à hauteur de 20 Md€ sur 10 ans. L’objectif étant de permettre à l’Europe de combler une partie de son retard sur un secteur aujourd’hui dominé par les États-Unis et l’Asie.
Une approche éthique
Mais les retombées économiques du secteur de l’IA ne sont pas l’unique sujet de préoccupation de l’Union européenne. La Commission rappelle ainsi qu’elle « fait naître de nouveaux enjeux pour l’avenir du travail et soulève des questions d’ordre juridique et éthique ». Raison pour laquelle, en 2018, elle a chargé un groupe d’experts indépendants issus du monde universitaire, de la société civile et de l’industrie de définir un certain nombre de principes éthiques qui sont destinés à encadrer le développement des outils d’IA en Europe. Ces principes, au nombre de 7, ont récemment été rendus publics. Leur respect devrait permettre l’avènement d’une IA « digne de confiance ». Ces principes sont les suivants :
Au-delà de l’Europe
Si ces principes ont vocation à « s’appliquer » en Europe, ils pourraient également être adoptés par d’autres pays. C’est du moins l’ambition de la Commission qui, a cette fin, « renforcera sa coopération avec les partenaires partageant les mêmes idées, comme le Japon, le Canada ou Singapour, et continuera à jouer un rôle actif dans les discussions et initiatives internationales, y compris au sein du G7 et du G20 ».
L’Europe souhaite une intelligence artificielle éthique