Dans ce numéro :
→ L’IA chinoise sera-t-elle plus éthique que l’occidentale ?
→ L’IA fait toujours un peu peur quand même…
→ Le Canada et le Royaume-Uni unissent leurs efforts dans l’intelligence artificielle responsable. Quid de l’UE ?
Il y a 4 ans, certaines personnes clamèrent que c’était bon, nous étions sortis de l’hiver de l’IA et enfin, celle-ci allait révéler son immense potentiel à l’humanité. Au même moment, d’autres commençaient à agiter le chiffon rouge de nos peurs en rappelant que l’IA, c’était les affreux cyborgs et surtout Skynet
Quelques mois plus tard, ce qui était une conversation de salon entre spécialistes, s’est répandue comme une nuée de sauterelles et a colonisé les esprits d’une telle manière qu’il est, aujourd’hui, difficile de tenir un discours contraire, sans être taxé.e de technophobe : à l’heure actuelle et au regard des avancées, l’IA n’existe pas et n’est pas près d’exister.
D’un point de vue marketing, promouvoir l’intelligence artificielle est beaucoup plus vendeur que le machine learning et le deep learning. Ça évite à la personne d’expliquer ce que recouvrent ces deux technologies réellement et de répondre à des questions auxquelles elle ne serait pas faire face. En revanche, l’intelligence artificielle, avec tout ce qu’elle véhicule dans l’imaginaire et dans nos cultures occidentales, parle beaucoup plus au grand public… Expliquer que le machine learning est une technologie de l’IA qui exploite des milliers de petites mains, bien humaines, pour un salaire de misère, est beaucoup moins amusant, même si c’est la réalité.
Le marché de l’intelligence artificielle aspire beaucoup de capitaux mais jusqu’à présent, pour reprendre la novlangue capitaliste, elle ne génère aucune valeur, elle est encore au stade du PoF (proof of concept) et n’est pas soutenable… Si donc elle traversait un nouvel hiver, ça passerait quasiment inaperçu et on continuerait à vaquer à nos occupations habituelles.
Bonne lecture !
— Dominique
Mais d’abord, rendons hommage à Larry Tesler !
Larry Tesler, l’inventeur du copier-coller, est mort.
L’IA chinoise sera-t-elle plus éthique que l’IA occidentale ?
L’éthique de l’IA est le grand sujet qui occupe, actuellement, les institutions et les gouvernements. Après l’UE, le forum de Davos et l’OCDE, c’est au tour de la Chine de promouvoir sa vision de l’éthique. Le pays du Crédit Social s’attaque donc à un des enjeux industriels de ces prochaines années : comment réguler les innovations dans cette branche, sans pour autant contrarier les industriels ?
Au pays qui a conçu une app pour savoir si la personne que vous croisez dans la rue est endettée ou pas, cet intérêt soudain pour l’éthique prête à sourire… et inquiète aussi. Car si la Chine est en avance sur les technologies de reconnaissance faciale et dans d’autres domaines, elles ne s’appliquent qu’au marché intérieur. Dans un excellent article intitulé « L’intelligence artificielle chinoise, un modèle ?« , Hubert Guillaud souligne toutes les contradictions de la position chinoise en la matière : oui, la Chine est une super-puissance dans cette industrie, capable de rivaliser fortement avec les Etats-Unis, mais cette apparente hégémonie ne repose que sur sa croissance interne. A terme, elle devrait se heurter au manque d’innovation, par manque de libertés individuelles et de démocratie.
C’est oublier que la Chine investit énormément à l’étranger, en achetant des start-up occidentales. L’année dernière, le gouvernement allemand s’était ému de cette situation, en voyant certaines de ses jeunes pousses passées sous pavillon chinois, avec tout ce que ça implique en terme de transferts technologiques.
Pour répondre donc à la question initiale, si la Chine s’est dotée d’une charte éthique qui garantit la vie privée, la dignité, la liberté, etc. il faut y voir l’émergence de plus en plus prégnante du soft power à la chinoise. Ni plus, ni moins.
On aime jouer à se faire peur, un peu trop parfois.
Connaissez-vous l’expression anglaise « canary in a coal mine » ? Les mineurs Anglais emportaient avec eux des canaris dans des cages pour les alerter, en cas de risque d’asphyxie par le méthane et autres gaz. Si un canari mourrait, il y avait alors danger.
Beaucoup s’inquiète de la montée en puissance de l’IA dans nos vies, appelant à la réguler et à la contrôler au maximum. Problème, aucune des applications ne passeraient le test de Turing, aujourd’hui. Et si quand bien même, elle le réussissait, notre canari ne serait pas en danger de mort. Ça voudrait juste dire qu’on ne peut plus distinguer une IA d’un être humain. A partir de là, l’humanité perdra-t-elle de sa superbe ? Rien n’est moins sûr. Avant d’arriver à cet état de fait, il ne faut jamais oublier que l’homme est au coeur de l’IA, comme le rappelle Oren Etzioni. Si AlphaGo a battu au jeu de Go un joueur humain, c’est grâce avant tout au travail d’une équipe qui a conçu le programme. Pensez-y lorsque vous jouez avec votre app Replika, derrière ce sont des hommes et des femmes qui travaillent à vous faire croire que ce compagnon virtuel est une véritable IA.
Le Canada et le Royaume-Uni collaborent dans le domaine de l’IA responsable. Quid de l’Europe ?
Lundi dernier, le Canada et le Royaume-Uni annonçaient qu’ils unissaient leurs efforts dans l’intelligence artificielle responsable. Des moyens financiers et des équipes trans et pluridisciplinaires seront alloués pour permettre d’évaluer l’impact de l’IA auprès des populations. Des recherches seront effectuées pour comprendre et analyser les données qui toucheront les individus de manière responsable.
Effet du Brexit ou pas ? Toujours est-il que l’UE devra se passer de nos ami.e.s britanniques sur la question. De son côté, elle a planché évidemment sur le sujet. Et il y a apparemment urgence à ce que l’UE prenne position par rapport à ce sujet. Car si on en croit une étude menée par Cap Gemini, les utilisateurs se soucient de plus en plus du cadre légal dans lequel évoluent ces super-algorithmes, et il en va de même dans les organisations, comme on l’observe sur le graphique ci-dessous :
Le 19 février, la Commission a donc dévoilé son rapport et les mesures qu’elle compte bien initier pour « une transformation numérique profitable à tous, reflétant le meilleur de ce que l’Europe offre: l’ouverture, l’équité, la diversité, la démocratie et la confiance« . Ceci dit, qu’est-ce-que cela implique réellement ? « La Commission prône une approche axée sur la régulation et l’investissement, qui poursuit le double objectif de promouvoir le recours à l’IA et de tenir compte des risques associés à certaines utilisations de cette nouvelle technologie.«
Ce qui veut dire, en termes moins abscons, de :
- Veiller à ce que la nouvelle législation sur l’IA tienne compte des risques; elle devrait être efficace, mais sans entraver l’innovation
- Exiger que les systèmes d’IA à haut risque soient transparents, traçables et sous contrôle humain
- Veiller à ce que les autorités soient en mesure de vérifier la conformité des systèmes d’IA, tout comme elles le font avec les cosmétiques, les voitures ou les jouets
- Veiller à ce que les ensembles de données ne soient pas entachés de biais
- Lancer un débat à l’échelle de l’UE sur l’utilisation de l’identification biométrique à distance (ex.: reconnaissance faciale)
Si certains décideurs ne souhaitent pas voir un nouveau RGPD de l’IA naître, la position de la Commission tend à démontrer qu’on va plutôt dans ce sens. L’UE marquerait ainsi son territoire dans une guerre technologique où elle était jusqu’alors en position de faiblesse.