Michel Polnareff :
Michel Polnareff est né le 3 juillet 1944 à Nérac (Lot-et-Garonne). Cultivant une apparence originale, il est aussi friand d'innovation.
Le concert Polnarévolution sera le premier concert français à bénéficier du son 5.1 en octobre 1972.
À partir des années 80, il utilisera abondamment samplers et séquenceurs. Il ouvrira son site internet en 1996, un site où il se nomme L'Amiral et où il surnomme
affectueusement ses fans les « moussaillons ».
Sa bio sur Wikipédia
Paradigmes (informatique) :
Un paradigme de programmation détermine la vue que le développeur a de l’exécution de son programme. Par exemple, en programmation orientée objet,
les développeurs peuvent considérer le programme comme une collection d’objets en interaction, tandis qu’en programmation fonctionnelle un programme peut être
vu comme une suite d'évaluations de fonctions sans états.
Plus d'infos sur Wikipédia
Liste de langages de programmation :
On appelle langage informatique un langage formel, non nécessairement Turing-complet, utilisé lors de la conception, la mise en œuvre, ou l'exploitation d'un système
d'information. Le terme est toutefois utilisé dans certains contextes dans le sens plus restrictif de langage de programmation.
Le but de cette liste de langages de programmation est d'inclure tous les langages de programmation existants, qu'ils soient actuellement utilisés ou historiques,
par ordre alphabétique. Ne sont pas listés ici les langages informatiques de représentation de données tels que XML, HTML, XHTML ou YAML. Un langage de
programmation doit permettre d’écrire des algorithmes, mais il n’est pas nécessaire qu’il soit Turing-complet (par exemple Gallina, le langage de programmation
de Coq, ne l’est pas).
Définition sur Wikipédia
La liste des langages sur Wikipédia
La liste des langages multiparadigmes sur Wikipédia
Python :
Python est un langage de programmation interprété, multiparadigme et multiplateformes. Il favorise la programmation impérative structurée, fonctionnelle et
orientée objet. Il est doté d'un typage dynamique fort, d'une gestion automatique de la mémoire par ramasse-miettes et d'un système de gestion d'exceptions.
Il est ainsi similaire à Perl, Ruby, Scheme, Smalltalk et Tcl.
La suite sur Wikipédia
Androïd :
Android est un système d'exploitation mobile fondé sur le noyau Linux et développé actuellement par Google. Lancé en juin 2007 à la suite du rachat par Google en
2005 de la startup du même nom, le système avait d'abord été conçu pour les smartphones et tablettes tactiles, puis s'est diversifié dans les objets connectés et
ordinateurs comme les télévisions (Android TV), les voitures (Android Auto), les Chromebook (Chrome OS qui utilise les applications Android) et les smartwatch
(Wear OS).
La suite sur Wikipédia
Intelligence artificielle :
L'intelligence artificielle (IA) est « l'ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler
l'intelligence ». Elle correspond donc à un ensemble de concepts et de technologies plus qu'à une discipline autonome constituée.
Souvent classée dans le groupe des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux), à la logique
mathématique (partie des mathématiques et de la philosophie) et à l'informatique. Elle recherche des méthodes de résolution de problèmes à forte complexité logique
ou algorithmique. Par extension elle désigne, dans le langage courant, les dispositifs imitant ou remplaçant l'homme dans certaines mises en œuvre de ses fonctions
cognitives. Ses finalités et son développement suscitent, depuis toujours, de nombreux fantasmes et inquiétudes s'exprimant tant dans les récits
ou films de science-fiction que dans les essais philosophiques.
Les détails sur Wikipédia
Réseaux de neurones artificiels:
Un réseau de neurones artificiels est un système dont la conception est inspirée, à l'origine, du fonctionnement des neurones biologiques, et
qui, par la suite, s'est rapproché des méthodes statistiques. Les réseaux de neurones sont généralement optimisés par des méthodes d’apprentissage de type
probabiliste. Ils font partie de la famille des applications statistiques qu’ils enrichissent avec un ensemble de paradigmes permettant de créer des classifications
rapides, et d’autre part dans la famille des méthodes de l’intelligence artificielle auxquelles ils fournissent un mécanisme perceptif indépendant des idées propres
de celui qui les met en œuvre.
Plus d'infos sur Wikipédia
Machine learning :
Le Machine learning, en français apprentissage machine ou apprentissage automatique ou encore apprentissage statistique est un champ d'études de l'intelligence
artificielle qui se fonde sur des approches statistiques pour donner aux ordinateurs la capacité d' « apprendre » à partir de données, c'est-à-dire d'améliorer
leurs performances à résoudre des tâches sans être explicitement programmés pour celles-ci. Plus largement, cela concerne la conception, l'analyse, le développement
et l'implémentation de telles méthodes.
Les détails sur Wikipédia
Deep learning :
L'apprentissage profond, en anglais deep learning, est un ensemble de méthodes d'apprentissage automatique cherchant à modéliser des données avec un haut niveau
d’abstraction. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance
faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage. Dans les années 2000, ces progrès ont suscité des
investissements privés, universitaires et publics importants, notamment de la part des GAFAM (Google, Apple, Facebook, Amazon, Microsoft).
La suite sur Wikipédia
Yann LeCun :
Yann Le Cun, né le 8 juillet 1960 à Soisy-sous-Montmorency , est un chercheur en intelligence artificielle et vision artificielle (robotique). Il est considéré
comme l'un des inventeurs de l'apprentissage profond. Dans les années 1990, il développe la technique des réseaux convolutifs pour la reconnaissance d'image.
Il reçoit le Prix Turing le 27 mars 2019, partagé avec Yoshua Bengio et Geoffrey Hinton.
Les détails sur Wikipédia
Cryptographie quantique :
La cryptographie quantique consiste à utiliser les propriétés de la physique quantique pour établir des protocoles de cryptographie qui permettent d'atteindre des
niveaux de sécurité qui sont prouvés ou conjecturés non atteignables en utilisant uniquement des phénomènes classiques (non-quantiques).
Elle ne doit pas être confondue avec la cryptographie post-quantique qui vise à créer des méthodes de cryptographie résistante à un attaquant possédant un
calculateur quantique.
Les calculateurs quantiques sur Wikipédia
La cryptographie quantique sur Wikipédia
Peter Shor :
Peter Williston Shor, né le 14 août 1959, est un mathématicien américain. Il est connu pour son travail sur le calcul quantique, en particulier pour l'algorithme
de Shor, un algorithme quantique utilisé pour la décomposition en produit de facteurs premiers qui, à l'heure actuelle, est exponentiellement plus rapide que le
meilleur algorithme connu tournant sur un ordinateur classique.
Les détails sur Wikipédia
Algorithme de Grover :
En informatique quantique, l’algorithme de Grover est un algorithme de recherche permettant de rechercher un ou plusieurs éléments, répondant à un critère
donné, parmi N éléments non classés en un temps proportionnel à racine de N (et non pas proportionnel à N comme avec les algorithmes classiques) et avec un espace
de stockage proportionnel à log(N). Il a été découvert par Lov Grover en 1996.
Plus d'infos sur Wikipédia
Problème de l'échiquier de Sissa :
Le problème de l'échiquier de Sissa, est un problème mathématique pouvant s'exprimer ainsi : « On place un grain de riz (ou de blé) sur la première case d'un échiquier. Si on fait en sorte de doubler
à chaque case le nombre de grains de la case précédente (un grain sur la première case, deux sur la deuxième, quatre sur la troisième, etc.), combien de grains de
riz obtient-on au total ? »
Les calculs sur Wikipédia
Richard Feynman :
Richard Phillips Feynman est un physicien américain, l'un des plus influents de la seconde moitié du XXe siècle., en raison notamment de ses travaux sur
l'électrodynamique quantique, les quarks et l'hélium superfluide. Il reformula entièrement la mécanique quantique et inventa les diagrammes qui portent son nom
et qui sont désormais largement utilisés en théorie quantique des champs.
La suite sur Wikipédia
IBM Quantum Experience :
Si vous voulez participer à l'IBM Quantum Experience, voici deux liens utiles (en anglais) :
Les infos sur Wikipédia
Le site d'IBM
Crédit images et vidéo :