Tu tâes dĂ©jĂ demandĂ© comment lâintelligence artificielle a Ă©tĂ© inventĂ©e ? Câest plutĂŽt fou quâon est passĂ© de vieux ordis Ă des machines capables dâĂ©crire des textes, de battre les meilleurs joueurs dâĂ©checs et mĂȘme de crĂ©er des images ! đ€
Lâhistoire de lâIA, câest une aventure faite de dĂ©couvertes rĂ©volutionnaires. Dans cet article, on va remonter le fil du temps pour explorer ses dĂ©buts et comprendre son Ă©volution jusquâaux IA dâaujourdâhui. đ
Les dĂ©buts de lâIA (1943-1960)
LâidĂ©e que des machines puissent penser ne date pas dâhier. Mais il a fallu attendre le XXe siĂšcle pour que des scientifiques sây attaquent sĂ©rieusement (et surtout, quâils disposent de la technologie nĂ©cessaire).
Les premiers modĂšles de neurones artificiels (1943) đïž
Tout commence en 1943 avec Warren McCulloch et Walter Pitts, deux chercheurs qui imaginent un modĂšle mathĂ©matique de neurones artificiels. Leur approche reste thĂ©orique : ils ne construisent pas de machine, mais posent les bases dâun systĂšme capable de traiter lâinformation comme un cerveau, avec des neurones interconnectĂ©s qui sâactivent ou non selon certaines rĂšgles logiques.
Câest une avancĂ©e Ă©norme ! MĂȘme si leur modĂšle est trĂšs simpliste, il dĂ©veloppe les bases des futurs rĂ©seaux neuronaux qui dominent lâIA aujourdâhui.
Alan Turing et le test de lâintelligence (1950) đ€
Difficile de parler des dĂ©buts de lâIA sans Ă©voquer Alan Turing. Ce gĂ©nie britannique, connu pour avoir cassĂ© le code Enigma pendant la Seconde Guerre mondiale, pose une question provocante en 1950 : âUne machine peut-elle penser ?â
Il propose un test, quâon appelle aujourdâhui le test de Turing. Le principe est simple : si une machine peut tenir une conversation indiscernable de celle dâun humain, alors elle peut ĂȘtre considĂ©rĂ©e comme âintelligenteâ.
Ce test reste encore aujourdâhui une rĂ©fĂ©rence dans le dĂ©bat sur lâintelligence des machines.
Turing a posĂ© les bases de lâinformatique moderne et de la rĂ©flexion sur lâintelligence artificielle. Sans lui, il nây aurait probablement pas dâIA moderne.
Si le sujet tâintĂ©resse, on te conseille de regarder le film Imitation Game (2014). Il raconte lâhistoire du dĂ©cryptage du code Enigma et comment Turing a jouĂ© un rĂŽle clĂ© dans la dĂ©faite des nazis.
La confĂ©rence de Dartmouth (1956) đ
En 1956, une petite rĂ©volution se produit Ă Dartmouth College, aux Ătats-Unis. Un groupe de chercheurs, menĂ© par John McCarthy et Marvin Minsky, organise une confĂ©rence oĂč ils introduisent officiellement le terme âintelligence artificielleâ.
Leur ambition : construire des machines capables de simuler la pensĂ©e humaine. Ils sont persuadĂ©s que, dans quelques annĂ©es, lâIA surpassera les humains dans de nombreuses tĂąches.Bon, ils ont Ă©tĂ© un peu trop optimistes. đ Mais cette confĂ©rence marque le dĂ©but officiel de la discipline. LâIA est nĂ©e !
Ă lire aussi
Ton premier cours particulier est offert ! đ
Nos profs sont passés par les meilleures écoles et universités.
Les annĂ©es 60-80 : une pĂ©riode dâexpĂ©rimentation đ
Les chercheurs de lâIA veulent transformer leurs idĂ©es en rĂ©alitĂ© et se mettent Ă expĂ©rimenter. Mais si certaines avancĂ©es sont impressionnantes, elles rĂ©vĂšlent aussi les limites des approches utilisĂ©esâŠ
LâIA symbolique et les premiers algorithmes heuristiques (annĂ©es 60) đïž
Dans les annĂ©es 60, lâIA repose sur une idĂ©e simple : pour quâune machine rĂ©flĂ©chisse, il faut quâelle manipule des symboles et des rĂšgles logiques, comme un humain le ferait.
Câest ce quâon appelle lâIA symbolique. On crĂ©e alors des algorithmes capables de rĂ©soudre des problĂšmes complexes en suivant des instructions prĂ©cises.
Un exemple marquant
Le programme Logic Theorist (1956), dĂ©veloppĂ© par Allen Newell et Herbert Simon. Ce logiciel Ă©tait capable de dĂ©montrer des thĂ©orĂšmes mathĂ©matiques, et parfois mĂȘme de trouver des preuves plus Ă©lĂ©gantes que celles des humains !
Mais il y a un hic : ces IA fonctionnent bien pour des problĂšmes trĂšs encadrĂ©s, mais dĂšs quâon leur donne une tĂąche plus vague, elles se retrouvent bloquĂ©es. Il reste encore beaucoup de travail Ă faire pour la rapprocher de lâIA dâaujourdâhui.
LâĂąge dâor des systĂšmes experts (1970-1980) đ§
Face aux limites des algorithmes symboliques, les chercheurs se tournent vers une nouvelle approche : les systĂšmes experts. PlutĂŽt que de tout calculer, une IA peut imiter les experts humains en sâappuyant sur une base de connaissances et un moteur dâinfĂ©rence.
Les premiers systĂšmes experts font sensation. MYCIN, par exemple, dĂ©veloppĂ© dans les annĂ©es 70, Ă©tait un programme capable de diagnostiquer des infections sanguines et de recommander des traitements. Câest rĂ©volutionnaire !
Cependant, cette pĂ©riode dâenthousiasme cache dĂ©jĂ les premiers signes de difficultĂ©s. Ă partir de 1974, un âhiver de lâIAâ commence Ă se dessiner. Plusieurs rapports critiques, notamment celui de James Lighthill, montrent un manque de progrĂšs concrets dans des domaines comme la robotique. MalgrĂ© des avancĂ©es intĂ©ressantes, lâIA nâa pas encore atteint les objectifs ambitieux fixĂ©s au dĂ©but. Cela commence Ă freiner les financements et lâenthousiasme autour des projets.
Les limites et le deuxiĂšme hiver de lâIA (annĂ©es 80) âïž
Les années 80 ont des problÚmes similaires à la fin des années 70 :
- CoĂ»ts trop Ă©levĂ©s : la crĂ©ation et la maintenance des systĂšmes dâIA sont trĂšs chĂšres.
- Manque de flexibilitĂ© : les systĂšmes ne sont pas capables de sâadapter Ă des situations nouvelles.
- Technologie limitĂ©e : les ordinateurs de lâĂ©poque ne peuvent pas gĂ©rer des systĂšmes aussi complexes.
RĂ©sultat : les investisseurs se lassent, les financements sâeffondrent et lâIA entre dans ce quâon appelle un deuxiĂšme âhiver de lâIAâ. Pendant prĂšs dâune dĂ©cennie, les avancĂ©es ralentissent et lâintĂ©rĂȘt pour lâIA diminue.
Besoin de cours particuliers ? âš
4 points de plus sur ta moyenne avec nos profs Sherpas ! đ
Les annĂ©es 90-2000 : le retour de lâIA grĂące Ă lâapprentissage machine đ
Une nouvelle approche va tout changer : lâapprentissage machine (machine learning).
Le machine learning permet Ă une machine dâapprendre Ă partir de donnĂ©es et dâamĂ©liorer ses performances sans ĂȘtre programmĂ©e pour chaque tĂąche spĂ©cifique.
LâĂ©chec du paradigme symbolique et la montĂ©e du machine learning đ
Dans les annĂ©es 90, on rĂ©alise que lâapproche symbolique et les systĂšmes experts ont atteint leurs limites. Ils sont rigides, incapables de traiter des situations inconnues et demandent une maintenance lourde.
Heureusement, une autre voie commence Ă sâimposer : celle de lâapprentissage statistique.
LâidĂ©e clĂ© du machine learning
Une IA peut apprendre Ă reconnaĂźtre des motifs et Ă prendre des dĂ©cisions en analysant de grandes quantitĂ©s de donnĂ©es. Plus elle voit dâexemples, plus elle sâamĂ©liore.
Ce changement est en grande partie dĂ» aux progrĂšs dans trois domaines :
âïž La puissance de calcul : les ordinateurs deviennent plus performants et moins chers.
âïž LâaccĂšs aux donnĂ©es : Internet explose et gĂ©nĂšre une masse dâinformations exploitable.
âïž De nouveaux algorithmes : des modĂšles comme les rĂ©seaux de neurones refont surface.
Victoire dâIBM Deep Blue contre Kasparov (1997) âïž
En 1997, un Ă©vĂ©nement va marquer les esprits : lâordinateur Deep Blue, dĂ©veloppĂ© par IBM, bat Garry Kasparov, champion du monde dâĂ©checs.
Câest la premiĂšre fois quâune machine surpasse un humain dans un jeu aussi stratĂ©gique. Mais attention, Deep Blue nâest pas une IA âintelligenteâ au sens propre : il ne fait que calculer des millions de coups Ă lâavance.
NĂ©anmoins, cette victoire montre le potentiel immense des nouvelles approches et donne un coup de projecteur sur lâIA.
Les bases du deep learning posĂ©es par Geoffrey Hinton đ§
Dans les annĂ©es 2000, un chercheur va jouer un rĂŽle clĂ© dans la renaissance de lâIA : Geoffrey Hinton. Il travaille sur un concept abandonnĂ© depuis les annĂ©es 60 : les rĂ©seaux de neurones artificiels. GrĂące aux avancĂ©es en calcul et en donnĂ©es, il est enfin possible dâentraĂźner des rĂ©seaux profonds, capables dâapprendre Ă dĂ©tecter des motifs sans intervention humaine.
Depuis 2010 : lâĂšre du deep learning et des modĂšles de langage đ€
Si les annĂ©es 90 et 2000 ont prĂ©parĂ© le terrain, câest dans les annĂ©es 2010 que lâIA explose vĂ©ritablement. GrĂące au deep learning et aux gigantesques bases de donnĂ©es dâInternet, les machines atteignent des niveaux de performance jamais vus.
Le deep learning est une branche du machine learning qui utilise des rĂ©seaux de neurones complexes pour apprendre des donnĂ©es et rĂ©soudre des tĂąches comme la reconnaissance dâimages ou le traitement du langage.
Pourquoi le deep learning change tout ? đ„
En 2012, lâĂ©quipe de Geoffrey Hinton participe Ă un concours mondial de reconnaissance dâimages, ImageNet, et pulvĂ©rise les records grĂące Ă un modĂšle de deep learning.
Pour la premiĂšre fois, une IA surpasse les humains dans la classification dâimages. Les entreprises technologiques (Google, Facebook, MicrosoftâŠ) se ruent sur cette technologie et investissent massivement.
En quelques années :
âïž Les assistants vocaux comme Siri, Alexa et Google Assistant deviennent bien plus efficaces.
âïž Les IA de reconnaissance faciale et de traduction automatique (DeepL, Google Translate) deviennent performantes.
âïž Les voitures autonomes commencent Ă devenir une rĂ©alitĂ© grĂące Ă lâanalyse en temps rĂ©el des donnĂ©es visuelles.
Le deep learning marque une rupture : on ne programme plus une IA pour résoudre un problÚme, on lui donne des tonnes de données et elle apprend toute seule.
AlphaGo (2016) : la claque pour les humains đ
Si Deep Blue avait impressionné en battant Kasparov en 1997, un autre exploit va bouleverser le monde : AlphaGo.
En 2016, ce programme conçu par DeepMind (Google) bat Lee Sedol, lâun des meilleurs joueurs de Go de lâhistoire.
Câest plutĂŽt incroyable, car le jeu de Go est infiniment plus complexe que les Ă©checs. Il ne peut pas ĂȘtre rĂ©solu par simple calcul. Pourtant, AlphaGo apprend Ă jouer en analysant des milliers de parties et en sâentraĂźnant contre lui-mĂȘme.
Ă partir de lĂ , plus personne ne doute : lâIA est en train de dĂ©passer lâhomme dans des tĂąches que lâon croyait rĂ©servĂ©es aux humains.
Les modĂšles de langage et lâexplosion des IA gĂ©nĂ©ratives âïž
Lâune des plus grandes avancĂ©es rĂ©centes, câest lâarrivĂ©e des modĂšles de langage comme GPT-3 (2020) et GPT-4 (2023).
Ces IA sont capables de rĂ©diger des textes, coder, traduire, rĂ©pondre Ă des questions complexes, et mĂȘme tenir des conversations naturelles avec nous. Elles sont entraĂźnĂ©es sur des milliards de phrases extraites du Web et utilisent des mĂ©canismes sophistiquĂ©s pour prĂ©dire le mot suivant dans une phrase.
Lâimpact sur le travail est dĂ©jĂ Ă©norme, avec des tĂąches comme la rĂ©daction ou lâassistance Ă la programmation qui se font en temps rĂ©el.
Ă lire aussi
Conclusion đ
En lâespace de quelques dĂ©cennies, lâintelligence artificielle est passĂ©e de thĂ©ories abstraites Ă des outils concrets qui transforment nos vies. Nos autres articles rĂ©pondent Ă plusieurs questions :
đĄ LâIA remplacera-t-elle certains mĂ©tiers ?
đĄ Faut-il la rĂ©guler pour raison de vol de donnĂ©es ?
đĄ Quel est son impact environnemental ?
đĄQuelles sont ses limites actuelles ?
Les prochaines annĂ©es sâannoncent passionnantes, et peut-ĂȘtre un peu vertigineuses. Une chose est sĂ»re : lâIA ne fait que commencer Ă Ă©crire son histoire.
Pour aller plus loin : prends un cours particulier avec lâun de nos profs Sherpas !