Le plus grand risque avec l’IA ? Ne pas déployer assez vite

 

Le plus grand risque lié à l’intelligence artificielle (IA) est de ne pas la déployer assez rapidement dans tous les domaines de l’activité humaine, selon Dave Heiner, vice-président et conseiller stratégique pour Microsoft.

« A tout endroit où l’intelligence est utile, soit à peu près partout, l’IA pourrait également être utile » a déclaré Heiner lors du Microsoft Summit de Sydney la semaine dernière.

L’humain augmenté par la techno, non éclipsé

Il note que l’IA – bien qu’il préfère le terme « d’intelligence computationnelle » – consiste à « amplifier l’inventivité humaine » dans des industries telles que l’éducation, la santé et l’administration, plutôt que de rendre les humains redondants.

Dans une analyse similaire, le responsable de l’IA chez Microsoft, Steve Clayton, affirme que l’éditeur exhorte les chefs d’entreprise à « substituer à une mentalité de réduction d’emploi et d’automatisation un esprit créateur et créatif. »

Julia White, vice-présidente de Microsoft Azure, conteste quant à elle l’argument d’une substitution de l’IA aux humains. Car selon elle, il suppose que les humains ne sont pas « des êtres capables d’apprendre, de progresser et de s’adapter. »

« La technologie a augmenté nos capacités jusqu’ici, et ce constat ne suggère pas qu’il en ira différemment avec la prochaine génération. Le simple fait de posséder un smartphone et un PC ne signifie pas, en tant qu’humain, que je ne suis pas adapté. Je suis plus compétente. Je peux communiquer avec plus d’interlocuteurs. Je peux être plus efficace. Je peux effectuer plus de tâches » commente White auprès de ZDNet.

Compte tenu de la quantité de données générées à l’échelle mondiale, l’opportunité de tirer parti de ces données pour améliorer la société est trop importante pour être ignorée, juge Clayton.

« Ces données proviennent des multiples terminaux présents dans le monde, que ce soit des PC, des enceintes intelligentes, mais surtout des capteurs, les capteurs dans les usines, dans les fermes, dans les hôpitaux, ces capteurs IoT maintenant connectés à Internet qui génèrent d’énormes quantités de données. Ceci combiné à des percées réelles au cours des deux ou trois dernières années sur de puissants algorithmes, en particulier dans le domaine de l’apprentissage automatique et celui appelé réseau neuronal profond. [Nous avons] la capacité à prendre d’énormes quantités de données afin de les traiter à grande échelle pour commencer à enseigner aux ordinateurs à voir, entendre, reconnaître et comprendre le monde de la même manière que nous le faisons » souligne le dirigeant, estimant que moins d’un demi pour cent des données actuellement disponibles sont utilisées pour l’information.

Sans confiance, pas de données et donc d’IA

Mais les entreprises pro-IA doivent dans un premier temps s’assurer que les consommateurs font entièrement confiance à la technologie, prévient Heiner.

« Nous avons besoin de cela [confiance] parce que les systèmes d’IA sont… dépendants des données. Si nous voulons utiliser l’IA pour prendre de meilleures décisions pour les individus, comme déterminer un risque de crise cardiaque ou le destinataire d’une transplantation d’organe, ce genre de chose, alors nous avons besoin de données sur les individus » précise-t-il.

« S’ils ne croient pas que leurs données seront utilisées à bon escient, ils ne les partageront pas. S’ils ne font pas confiance aux résultats d’un système d’IA, ils n’appliqueront pas non plus l’IA. »

« Nous devons vraiment travailler dur … sur un ensemble de problèmes sociétaux que l’IA soulève comme la fiabilité des systèmes, la confidentialité des données, l’équité de ces systèmes, et la transparence, en étant vraiment capables d’expliquer comment ils fonctionnent. »

Lire aussi sur l’intelligence artificielle :

ZDNet