« La philosophie de l’intelligence artificielle était à l’époque [dans les années 70 et 80] de se reposer sur les ingénieurs pour taper à la main le savoir que les machines devaient utiliser. Il s’avère que cette approche ne marche pas pour la perception, entre autres. » – Yann LeCun, directeur du laboratoire de recherche en intelligence artificielle, Facebook

« Ça ne fonctionnait pas comme on l’aurait souhaité et on ne savait pas vraiment pourquoi. Aujourd’hui, on le sait. On manquait de puissance de calcul et de masse de données. » – Geoffrey Hinton, professeur et chercheur, Université de Toronto et Google

Née dans les années 1950, aujourd’hui cette discipline scientifique entre dans notre quotidien de façon plus en plus concrète. Son développement rapide alimente tous nos espoirs et fascinations mais laisse aussi beaucoup d’idées reçues.

Derrière l’effet de mode du sujet l’intelligence artificielle (IA) relève parfois davantage de fiction que de science. Plusieurs idées reçues circulent et participent à l’élaboration d’une économie de promesses plus artificielles que réelles. En ce qui suit nous répondons aux idées reçues les plus répandues pour vous les éclaircir.

 

L’intelligence artificielle est à 100% artificielle :

FAUX: Pour fonctionner correctement les intelligences artificielles ont malheureusement besoin de beaucoup d’attention humaine.

Si l’on souhaite qu’un ordinateur reconnaisse des chatons sur des images pour créer un moteur de recherche (comme ce que propose Google Images par exemple), il faut encore beaucoup de phase d’entrainement des machines.

Par contre si on fournit à l’ordinateur une quantité massive de données (sons, images ou textes) et le résultat qu’on attend de lui, l’ordinateur ajuste graduellement ses paramètres internes. Il peut ensuite exécuter la tâche apprise : traduire un document, établir des liens entre deux phénomènes ou décrire une image.

 

 

L’intelligence artificielle remplacera nos emplois :

FAUX: La discussion passionne particulièrement les grands cabinets d’audit et les instituts de recherche, qui publient régulièrement études et rapports sur un phénomène qui n’est rien d’autre que celui de l’automatisation.

La menace du remplacement des humains par des machines fait donc souvent objet de déclarations fracassantes.

Aucun n’est totalement neutre dans ce débat: certains peuvent chercher à obtenir ou maintenir des subventions pour leurs départements de recherche avec un sujet en vogue, d’autres à vendre des prestations de conseils à de nouveaux clients. D’une étude à l’autre, on peut passer d’un chiffre alarmiste à un phénomène marginal.

 

On apprend aux intelligences artificielles à penser comme des humains :

FAUX :  Le terme d’intelligence artificielle est lui-même source de confusion et est en partie responsable de cette erreur. Parler d’intelligence, c’est impliquer qu’un ordinateur puisse être doté de cette faculté cognitive proprement humaine alors que ceci n’est pas vraiment vrai.

Dans les années 80 et 90, les chercheurs Geoffrey Hinton, Yann LeCun et Yoshua Bengio ont jeté les bases de ce qui allait révolutionner l’intelligence artificielle, permettant à l’ordinateur d’apprendre par lui-même à voir, à dialoguer, à prédire et à créer. Des aptitudes qu’on croyait réservées à l’intellect humain.

Basée sur les « réseaux de neurones artificiels », cette approche, appelée apprentissage profond, s’inspire du fonctionnement du cerveau humain.

Cette technique est bio-inspirée mais elle n’est pas biomimétique. Cette intelligence artificielle est donc qualifié de «faible», c’est-à-dire qu’elle a d’énormes compétences, mais uniquement sur des tâches précises. Et pouvoir reconstruire artificiellement un cerveau reste au-delà de nos capacités technologiques actuelles.

 

L’intelligence artificielle est plus objective que les humains quand elle prend des décisions :

FAUX : Les algorithmes sont au cœur des décisions importantes comme les décisions quotidiennes. Mais les exemples de discriminations et des erreurs algorithmiques se multiplient. Les biais algorithmiques, c’est-à-dire des erreurs de conception humaines dans l’écriture des programmes informatiques, sont le plus souvent masquées par un principe de rationalité mathématique, alors que certaines décisions restent strictement humaine. Les origines du problème sont à chercher du côté autant du code que de l’absence de certaines compétences.

 

L’intelligence artificielle va surpasser l’homme :

FAUX : La question est moins de savoir si l’IA sera capable de nous dépasser demain que de savoir à quelles fins elle est utilisée aujourd’hui. Lorsqu’elle ne sert pas à augmenter nos compétences (médicales, éducatives, industrielles), elle utilise nos données personnelles et nos profils sociaux pour anticiper nos besoins et nous proposer des services toujours plus personnalisés. Mais finalement le monde n’est pas modélisable de façon aussi binaire que l’on programme un ordinateur.

 

 

Source :

http://ici.radio-canada.ca/nouvelles/special/2017/02/intelligence-artificielle/voir-vision-apprentissage-profond-reseau-neurone.html

http://www.lefigaro.fr/secteur/high-tech/2018/01/19/32001-20180119ARTFIG00276-cinq-idees-recues-sur-l-intelligence-artificielle.php

http://www.lefigaro.fr/social/2017/01/12/20011-20170112ARTFIG00048-non-les-robots-ne-vont-pas-remplacer-tous-les-salaries.php

 

 

 

Adapté par Yousra Laabid.



Free WordPress Themes, Free Android Games