Une IA qui ne trahit pas la confidentialité

Chacun est désormais conscient des risques que l’intelligence artificielle (IA) implique notamment en termes de confidentialité. Heureusement, de nouvelles techniques pointent à l’horizon pour résoudre ce problème.

Les consommateurs pourront bénéficier de l’IA sans pour autant transmettre d’informations personnelles aux GAFAMs (Google, Amazon, Facebook, Apple, Microsoft). En effet, il devient possible d’envoyer des informations chiffrées à des IA qui restent capables de les traiter sans pour autant connaître la clé de chiffrement.

Les challenges de l’IA

Une IA performante requiert la collecte d’une grande quantité de données personnelles. Ainsi, les données accumulées par les acteurs majeurs du web, dont les fameux GAFAMs, leurs donnent un avantage concurrentiel énorme.

Cela se fait particulièrement au détriment du respect de la vie privée. Ces données sont stockées en “clair”, c’est-à-dire sans chiffrement, ou avec un chiffrement n’empêchant pas l’entreprise de les déchiffrer. C’est la raison principale pour laquelle l’utilisation des services des GAFAMs ou d’IA en général force les utilisateurs à accepter des Conditions générales d’utilisation complexes qui limitent la responsabilité de ces services par rapport à l’utilisation des données personnelles.

Quelles sont les solutions?

Des solutions existent déjà pour limiter l’atteinte à la vie privée lors de l’utilisation des données “à risque”. Ces solutions restent toutefois partielles car elles impliquent des compromis importants péjorant particulièrement l’intérêt principal du Cloud (mutualisation des ressources informatiques).

Une solution nouvelle, le chiffrement homomorphique, permet de préserver le chiffrement des données envoyées et reçues par l’IA de “bout-en-bout”. Un utilisateur pourra par exemple chiffrer un document, l’envoyer à Ketl, puis obtenir en retour des informations extraites par l’IA (type de document, nom des clients y figurant…). Les informations reçues en retour restent chiffrées et l’utilisateur final est le seul à pouvoir les déchiffrer. Il conserve ainsi un contrôle total sur ses données.

Cette approche au chiffrement résout les principaux obstacles à une vraie démocratisation de l’IA. A l’état actuel de la recherche, elle est coûteuse en temps de calcul et ne peut s’appliquer que sur des IA relativement simples. La puissance de calcul progresse encore de façon exponentielle, ouvrant ainsi chaque année de nouvelles possibilités dans ce domaine. Le cloud et l’IA pourront donc jouer un rôle majeur dans nos quotidiens sans autant pour compromettre certaines valeurs de nos sociétés.

En savoir plus: https://fr.wikipedia.org/wiki/Chiffrement_homomorphe https://inpher.io/technology/what-is-fully-homomorphic-encryption/ https://www.keyfactor.com/blog/what-is-homomorphic-encryption/ https://eprint.iacr.org/2015/1192.pdf