+ All Categories
Home > Documents > BIG DATA ET IA€¦ · effet de buzz marketing avec le Big Data mais son impact a été réel sur...

BIG DATA ET IA€¦ · effet de buzz marketing avec le Big Data mais son impact a été réel sur...

Date post: 22-Aug-2020
Category:
Upload: others
View: 0 times
Download: 0 times
Share this document with a friend
9
BIG DATA ET IA: UNE ÉTRANGE RESSEMBLANCE... REVUE DE CONCEPTS
Transcript
Page 1: BIG DATA ET IA€¦ · effet de buzz marketing avec le Big Data mais son impact a été réel sur le décryptage et la ... elle se limite à des chatbots mais elle porte en elle un

BIG DATAET IA:

UNE ÉTRANGERESSEMBLANCE...

REVUE DECONCEPTS

Page 2: BIG DATA ET IA€¦ · effet de buzz marketing avec le Big Data mais son impact a été réel sur le décryptage et la ... elle se limite à des chatbots mais elle porte en elle un

22

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?Selon l’un de ses créateurs, Marvin Lee Minsky en 1956, l’Intelligence Artificielle serait une forme dégénérée d’intelligence humaine, ou – à tout le moins – une pâle copie encore inaboutie du cerveau humain. Voici ce qu’il déclarait :

test

« L’IA correspond à la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres hu-mains car elles demandent des processus mentaux de haut niveau tels que : l’appren-tissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».

Par la suite, les outils algorithmiques et informatiques ayant évolué vers davantage de perfor-mance, la définition de l’IA supprime la notion de suprématie du cerveau humain sur ces tâches :

« L’IA se définit traditionnellement comme la capacité des ordinateurs à effectuer des tâches cognitives habituellement associées au cerveau humain, telles que la percep-tion, le raisonnement, l’apprentissage, l’interaction avec l’environnement, la résolution de problèmes et même la pratique créative. » (Mc Kinsey 2018, An Executive’s Guide to AI)

3 NIVEAUX D’INTELLIGENCE ARTIFICIELLE• Artificial Narrow Intelligence (ANI) ou « IA faible » = Capacité de l’IA à traiter des pro-blèmes ciblés sur certains domaines. Les fonctions du système sont limitées à l’exécution d’un segment de tâches complexes mais prédéfinies. C’est aujourd’hui l’état de l’art en matière d’IA : moteur de recherche, assistants vocaux, véhicules autonomes, etc.

• Artificial General Intelligence (AGI) ou « IA forte » = Capacité de l’IA à exécuter toutes les tâches intellectuelles effectuées par le cerveau humain. Dans son récent livre « Superintelligence : Paths, Dangers, Strategies », le philosophe Nick Bostrom affirme qu’il y aurait 50% de chances pour que cette étape de l’AGI soit franchie avant 2050.

• Artificial Super Intelligence (ASI) ou « Superintelligence » = Capacité de l’IA à exécuter des tâches qui sont inatteignables pour le cerveau humain. Les chercheurs estiment que l’ASI devrait advenir dans la foulée de l’AGI.

Un test simple si vous voulez vérifier que votre robot AGIfonctionne bien :

LE TEST DU CAFE (PAR STEVE WOZNIAK)« Dites à votre machine d’entrer dans n’importe quelle mai-son et de comprendre comment y faire du café : trouver la machine à café, trouver le café, ajouter de l’eau, trouver une tasse et faire couler le café en pressant les bons boutons ».Facile pour une AGI !

DU BIG DATAÀ L’IA

BIG DATA, IA…REVUE DE CONCEPTS

Page 3: BIG DATA ET IA€¦ · effet de buzz marketing avec le Big Data mais son impact a été réel sur le décryptage et la ... elle se limite à des chatbots mais elle porte en elle un

3

DU BIG DATAÀ L’IA

3

INTERVIEW DECYRILLE CHAUSSON

« LE BIG DATA AÉTÉ LA RAMPE DE LANCEMENT DE L’IA »1/ ÇA INTÉRESSE TOUJOURS AUTANT DE LECTEURS LE BIG DATA ?Plus que jamais ! Avant on parlait surtout des technologies, maintenant on a suffisam-ment de cas concrets avancés (pas seulement des PoC) pour parler d’usages… c’est tout de même plus captivant ! C’est intéressant d’ail-leurs de noter que le terme Hadoop a quasi-ment disparu des articles ou événements liés au Big Data (ex : le Hadoop Summit a laissé place au DataWorks Summit) : désormais les technologies sont devenues assez abstraites, on se concentre sur les cas d’usage et sur la façon d’aborder concrètement les probléma-tiques data.

2/ AVEC UN PEU DE RECUL, EST-CE QU’ON N’A PAS FORCÉ LE TRAIT SUR L’IMPACT DU BIG DATA ? L’ANALYSE DE DONNÉES, CE N’ÉTAIT PAS SI NOUVEAU…L’analyse de données a toujours existé mais pas l’interconnexion entre autant de sources différentes d’informations. Avant, on privilé-giait une approche structurée, en classifiant les données pour pouvoir les traiter.

Le Big Data a sorti de

l’ombre toutes ces données

qui étaient jusque-là

inutilisées ou invisibles

Le Big Data a sorti de l’ombre toutes ces don-nées qui étaient jusque-là inutilisées ou invi-sibles car non structurées, et il a su en tirer une mine d’informations. Donc, oui, il y a eu un effet de buzz marketing avec le Big Data mais son impact a été réel sur le décryptage et la création de valeur.

3/ AUJOURD’HUI, OÙ EN EST-ON DU DATA DELUGE ?Ce qui est intéressant, c’est le mouvement in-verse que l’on observe actuellement : après avoir réuni ces marécages de données non structurées, on veut désormais structurer le traitement, c’est-à-dire repasser au langage SQL et à la classification de données en cata-logues pour permettre aux métiers d’interro-

ger les data lake et d’en tirer la valeur. C’est ce pavé qui manque encore bien souvent dans la stratégie des entreprises ; avec pour consé-quence le phénomène des dark data, ces don-nées qu’on a stockées mais qu’on n’utilise pas. Seules 20% des données sont utilisées en entreprise actuellement.

4/ LE BIG DATA, L’IA… CE SONT DES CONCEPTS CONCURRENTS OU C’EST LA MÊME CHOSE ?Je dirais que le premier a été la rampe de lan-cement du second. Pendant des années, j’ai vu des entreprises s’équiper au pas de course avec des technologies complexes… sans for-cément y voir d’autre objectif que de ne pas perdre du terrain sur leurs concurrents. Désormais, avec la vague d’algorithmes et d’automatisations issus de l’IA, elles y trouvent enfin un sens : on va pouvoir enfin faire parler toutes ces données accumulées ! Ce qui est sûr, c’est que l’IA n’aurait eu aucune chance d’être adoptée sans le Big Data : il a permis de déve-lopper la culture data au sein de l’entreprise et d’insuffler la conduite du changement.

Inte

rvie

w

Repasser le Big Data au langage SQL, un des défis à venir pour garantir l’appropriation par les métiers

Page 4: BIG DATA ET IA€¦ · effet de buzz marketing avec le Big Data mais son impact a été réel sur le décryptage et la ... elle se limite à des chatbots mais elle porte en elle un

4

DU BIG DATAÀ L’IA

WWW.BIGDATAPARIS.COM/2019 4

5/ JUSTEMENT, L’IA, VOUS LA VOYEZ OÙ DANS DIX ANS ?Difficile à dire car on est encore aux prémices : on voit beaucoup d’idées mais peu de projets de grande ampleur. Ce qui est sûr, c’est qu’à l’image du Big Data, les fournisseurs vont pro-gressivement adapter leur offre technologique pour qu’elle colle aux usages. Et puis, en France, l’écosystème est en train de se struc-turer : pour l’instant il est difficile de mesu-rer vraiment l’impact de chaque acteur car les start-ups sont beaucoup mises en avant, mais on ne sait pas concrètement le poids écono-mique que cela représente - au-delà des en-couragements des pouvoirs publics. Et puis, il y a toujours les GAFA qui portent l’innovation sur ces sujets depuis dix ans et qui ne vont pas s’arrêter là… c’est clairement de ce côté là que se jouera l’avenir de l’IA dans les cinq ans à venir.

6/ ET CÔTÉ USAGES… ?Coté usages BtoB, je pense que les deux prin-cipales utilisations de l’IA seront celles liées à l’automatisation des tâches et à la reconnais-sance vocale. Dans l’industrie mais aussi dans la banque, le retail, on aura besoin de proces-sus automatisés et intelligents capables de répondre dynamiquement à une panne ou une situation exceptionnelle. Cela changera l’ex-périence opérationnelle en interne mais aussi l’expérience client.Et puis il y a la reconnaissance vocale… Pour l’instant, elle se limite à des chatbots mais elle porte en elle un enjeu primordial, celui de l’in-terface entre l’homme et la machine. Toutes les fonctions du langage pourraient bientôt être analysées. Sur ce terrain, les progrès technologiques sont immenses, il y a beau-coup à faire dans les dix prochaines années.

Le Big Data a permis

de développer la culture

data au sein de l’entreprise

et d’insuffler la conduite

du changement

Page 5: BIG DATA ET IA€¦ · effet de buzz marketing avec le Big Data mais son impact a été réel sur le décryptage et la ... elle se limite à des chatbots mais elle porte en elle un

5

DU BIG DATAÀ L’IA

WWW.BIGDATAPARIS.COM/2019 5

LE LIEN ENTRE BIG DATA ET IA3 INGRÉDIENTS FONDAMENTAUX CONSTITUENT LE CŒUR DE L’INTELLIGENCE ARTIFICIELLE :

Si le développement algorithmique s’est imposé dès les années 50 (ingrédient 1), c’est grâce à l’explosion des données (ingrédient 2) et le renfor-cement des outils informatiques (ingrédient 3) induits par la révolution Big Data que l’intelligence artificielle a pu se généraliser. En ce sens, le Big Data constitue non seulement le contributeur numéro 1 de l’Intelligence Artificielle (puisqu’il recouvre deux ingrédients sur trois) mais aussi son catalyseur principal.

Mc Kinsey établit à 2009 la première date historique de réunion de ces trois ingré-dients avec l’expérimentation d’Andrew Ng, chercheur en informatique à l’université de Stanford : celui-ci démontre qu’en appliquant 100 millions de paramètres (data) à des modèles de deep learning (algorithmes) et en les exécutant sur des processeurs gra-phiques GPU (informatique), il gagne de façon exponentielle en vélocité (jusqu’à 70 fois le temps de traitement nécessaire auparavant avec des processeurs CPU).

L’ingrédient Data

L’ingrédient Data (« la matière »), soit l’ensemble des données qui entrent en ligne de compte dans

le problème donné et qui irrigueront les algorithmes pour aboutir à la résolution du problème et

valider la stabilité du modèle. A défaut, elles permettront d’affiner les modes opératoires de ces

algorithmes pour les amener vers le « zéro erreur ». Plus les données sont volumineuses et di-

versifiées, plus elles rendent compte d’une réalité complexe et tendent à rendre le modèle stable.

L’ingrédient Algorithmique L’ingrédient Algorithmique (« le cerveau »), soit les modèles de suites mathématiques incluant

calculs et règles opératoires itératives qui permettront de répondre à un problème donné de

manière stable - c’est-à-dire sans erreur possible dans le résultat final quelles que soient les

caractéristiques du problème à chaque étape de calcul.

L’ingrédient Informatique

L’ingrédient Informatique (« le moteur »), soit l’ensemble des outils de stockage et de traitement

qui s’exécutent automatiquement sur une machine (ordinateur, capteurs, etc). Ils permettront à

l’algorithme d’extraire les données cibles et d’effectuer tous les calculs de manière lisse, rapide

et reproductible. La performance de ces outils (temps d’exécution, énergie disponible, volume

induit) est dès lors un critère essentiel.

Page 6: BIG DATA ET IA€¦ · effet de buzz marketing avec le Big Data mais son impact a été réel sur le décryptage et la ... elle se limite à des chatbots mais elle porte en elle un

66

Machine Learning et Deep Learning sont donc des implémentations spécifiques de traitements Big Data destinées à servir la création d’applications d’Intelligence Artificielle.

LES CONCEPTS LIÉS À L’IA ET AU BIG DATA DONT ON ENTEND TOUJOURS PARLER

Le Deep Learning (ou Apprentissage Profond)

Type de Machine Learning faisant intervenir de plus grands volumes de données et des techniques

de traitement faisant appel à des architectures complexes de données (données interconnectées

de type « réseau de neurones » et traitées par couches successives). Le Deep Learning est parti-

culièrement efficace dans les applications de reconnaissance vocale, faciale ou sémantique.

LE MACHINE LEARNING (ou Apprentissage Automatique) Techniques de traitement de larges segments de données qui permettent d’identifier des com-

portements et des règles généralisables à une population exogène aux données initiales (« patterns »),

à des fins de prédictions et de recommandations. Ces patterns s’affinent et s’enrichissent au fur

et à mesure qu’on les alimente de nouvelles données.

INTERVIEW DEZYED ZALILAPDG-FONDATEUR INTELLITECH / PROFESSEUR À L’UTC

« LA VARIÉTÉ ESTAU CŒUR DE LAPROBLÉMATIQUEDATA »ZYED ZALILA EST PROFESSEUR À L’UTC OÙ IL ENSEIGNE UN TYPE SPÉCIFIQUE D’INTELLIGENCE ARTIFICIELLE : L’IA FLOUE AUGMENTÉE.AVEC SON ÉQUIPE D’UNE QUINZAINE D’INGÉNIEURS DE RECHERCHE AU SEIN DE SA SOCIÉTÉ INTELLITECH, IL A MIS AU POINT XTRACTIS, UN AUTOMATEINTELLIGENT UNIVERSEL CAPABLEDE RAISONNER SUR UN ENSEMBLE In

terv

iew

D’OBSERVATIONS QU’IL REÇOIT POUR DÉCOUVRIR LES MODÈLES PRÉDICTIFS EXPLIQUANT DE MANIÈRE ROBUSTE LE PHÉNOMÈNE ÉTUDIÉ.

1/ LE BIG DATA EST-IL UN INGRÉDIENT FONDAMENTAL DE L’INTELLIGENCE ARTIFICIELLE ?Je n’aime pas le terme de Big Data car il a tendance à survaloriser la question des volumes de données, une question qui a plutôt trait à l’informatique (stockage, accès). Or, en mathématiques, je peux vous garantir qu’on peut créer des modèles robustes d’IA sans forcément passer par des volumes importants de données : ce qui compte,

Page 7: BIG DATA ET IA€¦ · effet de buzz marketing avec le Big Data mais son impact a été réel sur le décryptage et la ... elle se limite à des chatbots mais elle porte en elle un

7

DU BIG DATAÀ L’IA

WWW.BIGDATAPARIS.COM/20197

c’est la largeur de la base de données, soit le nombre de variables disponibles pour créer le modèle. Vous n’aurez pas les mêmes besoins en algorithmie IA si votre base de données contient 26 000 colonnes (ce qui est le cas pour la médecine prédictive épigénétique) au lieu de 10… Encore plus si ces variables sont liées entre elles. Mathématiquement, les al-gorithmes d’IA doivent pouvoir résoudre de tels problèmes complexes non-linéaires. Pour moi, c’est donc la variété qui est au cœur de la problématique data.

2/ POURTANT, AVEC XTRACTIS, VOUSN’UTILISEZ QUE DES DONNÉESSTRUCTURÉES…Disons que les données que j’injecte dans le système vont toutes être présentées sous un format lignes/colonnes, d’où la notion de données structurées. C’est un prérequis : le problème doit toujours être posé de la même façon si l’on veut que l’automate puisse ré-soudre n’importe quel problème prédictif quel que soit le secteur d’application. Mais la nature des données est, elle, très variable : qualitative/quantitative, objective/subjective, certaine/incertaine, précise/imprécise, mesu-rée/manquante… c’est l’un des avantages que nous apportent les mathématiques du flou. D’ailleurs, nous intégrons de plus en plus des images et des signaux - qui sont des données non structurées - après une phase de prétrai-tement.

3/ A L’ISSUE DU TRAITEMENT PARXTRACTIS, VOUS PRÉTENDEZ OBTENIRDES MODÈLES EXPLICABLES…QUE VOULEZ-VOUS DIRE ?Lorsque xtractis découvre des connaissances à partir d’une base de données, il va pouvoir formuler le modèle prédictif sous forme de règles ou d’équations accessibles à l’enten-dement humain (de type « si… alors… »). Cela signifie que les personnes qui utiliseront en-suite les résultats de ces travaux pour prendre des décisions pourront toujours justifier de leur démarche : elles pourront toujours ex-pliquer, au régulateur ou au juge, les règles du modèle et prouver qu’il est à la fois neutre (sans biais) et robuste (prédictions fiables en situations inconnues). Ce n’est pas le cas avec la plupart des modèles « boîte noire », de type Deep Learning/réseaux de neurones ou fo-rêts aléatoires, car ceux-ci ne sont pas acces-sibles à l’entendement humain. On doit donc se fier à une décision automatisée, dont on ne peut expliquer le schéma décisionnel, qui pose la question de la responsabilité juridique.

Le RGPD rend ce point d’autant plus crucial qu’il impose un « droit à l’explication » pour toute décision issue d’un traitement automatisé. Pour être audité et certifié, un système IA se doit donc d’être intelligible et explicable.

4/ VOUS CONCENTREZ VOS TRAVAUX SUR UN GENRE PARTICULIER D’IA, L’IA FLOUE AUGMENTÉE… POUVEZ-VOUS NOUS EXPLIQUER CE QUE CETTE DISCIPLINE RECOUVRE ?L’IA floue ou IA nuancée / graduelle, c’est une logique quantique qui s’oppose à la modélisation traditionnelle binaire du monde sous l’angle Vrai/Faux, comme nous l’appliquons depuis Aristote.

Le Robot xtractis détermine des zones de décisions plus ou moins satisfaisantes pour un problème donné. Ici, les solutions les plus satisfaisantes sont en marron, les moins satisfaisantes en bleu

Page 8: BIG DATA ET IA€¦ · effet de buzz marketing avec le Big Data mais son impact a été réel sur le décryptage et la ... elle se limite à des chatbots mais elle porte en elle un

8

On peut considérer qu’il y a une infinité de de-grés de vérités différentes dans une assertion et qu’il faudrait pouvoir toutes les modéliser. Prenons un exemple : nous considérons que la majorité juridique d’une personne s’établit à 18 ans. Cela signifie que la règle de droit ne va pas être la même entre un individu qui commet un délit à 17 ans et 364 jours et un autre qui commet ce même délit à 18 ans et 1 jour. Or, vous conviendrez que ces deux ré-alités sont extrêmement proches… Avec l’IA floue, nous essayons de modéliser ces réali-tés proches au sein des data, avec pour ob-jectif de proposer à nos clients des systèmes continus d’aide à la décision insensibles aux effets de seuil.

LES 10 « BIG DATA » DE L’INTELLIGENCE ARTIFICIELLE

DATA 1 LE MARCHÉ

IDC prévoit un chiffre d’affaires de

46 milliards dedollars pour les

systèmes d’IA et de Machine Learning d’ici

2020

DATA 3LA CONTRIBUTION A LA CROISSANCE

MONDIALE

PwC estime que l’IA devrait permettre

une croissance du PIB mondial de 14% d’ici

2030.

DATA 2LA CROISSANCE

BPI France table sur une croissance de 53% du marché entre 2015

et 2020

DATA 4LA CONTRIBUTION AUX

ENTREPRISES

Accenture évalue à38 % en moyenne

l’accroissement de la rentabilité des

entreprises d’ici 2035.

DATA 5LES START-UP

Selon BPI France, on recense 950 start-up consacrées à l’IA dans le monde dont 499 aux

USA

DATA 6LES LEVÉES DE FONDS

Le Hub Instituteestime que les

montants des levées de fonds en France ont été multipliéspar 3 entre 2010 et

2016 passant de 0,6 à 1,8 milliards de dollars.

DATA 8CHINA FIRST

Toujours selon CB Insights, 48% desinvestissements

mentionnés étaient destinés à la Chine contre 38% pour les

Etats-Unis.

DATA 7LES INVESTISSEMENTS

Selon CB Insights, en 2017, 15,2 milliards

de dollars ont étéinvestis à l’échelle mondiale dans des

start-up IA.

DATA 9L’APPORT MARKETING

Selon BPI France, avec l’IA, 85% des

interactions avec le client ne nécessiteront plus de main d’œuvre

humaine.

DATA 10L’IA, EMPLOYÉ

DE L’ANNÉE

Toujours selon BPI France, avec l’IA, 20%

du contenu desentreprises sera

bientôt généré par des machines.

PAR COMPARAISON… QUE DISAIT-ON DU BIG DATA EN 2013 ? (Extrait du Guide du Big Data 2013/14)Selon IDC, le marché du Big Data s’établirait à 24 milliards de dollars en 2016

Avec un taux de croissance annuel de 31,7%En juillet 2013, McKinsey estimait que le PIB des Etats-Unis pourrait croître de 1,7% d’ici 2020 en s’appuyant sur le Big Data

8

Page 9: BIG DATA ET IA€¦ · effet de buzz marketing avec le Big Data mais son impact a été réel sur le décryptage et la ... elle se limite à des chatbots mais elle porte en elle un

Participez à Big Data Paris

les 11 & 12 mars 2019au Palais des Congrès

et profitez d’une opportunité

unique de vous informer et

networker avec l’ensemble

des acteurs de l’écosystème

Big Data.

Inscriptions surWWW.BIGDATAPARIS.COM/2019

BIG DATAET IA:

UNE ÉTRANGERESSEMBLANCE...

REVUE DECONCEPTS


Recommended