On ira tous au paradigme
En savoir plus


Michel Polnareff :

Michel Polnareff est né le 3 juillet 1944 à Nérac (Lot-et-Garonne). Cultivant une apparence originale, il est aussi friand d'innovation. Le concert Polnarévolution sera le premier concert français à bénéficier du son 5.1 en octobre 1972. À partir des années 80, il utilisera abondamment samplers et séquenceurs. Il ouvrira son site internet en 1996, un site où il se nomme L'Amiral et où il surnomme affectueusement ses fans les « moussaillons ».

Sa bio sur Wikipédia

Paradigmes (informatique) :

Un paradigme de programmation détermine la vue que le développeur a de l’exécution de son programme. Par exemple, en programmation orientée objet, les développeurs peuvent considérer le programme comme une collection d’objets en interaction, tandis qu’en programmation fonctionnelle un programme peut être vu comme une suite d'évaluations de fonctions sans états.

Plus d'infos sur Wikipédia

Liste de langages de programmation :

On appelle langage informatique un langage formel, non nécessairement Turing-complet, utilisé lors de la conception, la mise en œuvre, ou l'exploitation d'un système d'information. Le terme est toutefois utilisé dans certains contextes dans le sens plus restrictif de langage de programmation. Le but de cette liste de langages de programmation est d'inclure tous les langages de programmation existants, qu'ils soient actuellement utilisés ou historiques, par ordre alphabétique. Ne sont pas listés ici les langages informatiques de représentation de données tels que XML, HTML, XHTML ou YAML. Un langage de programmation doit permettre d’écrire des algorithmes, mais il n’est pas nécessaire qu’il soit Turing-complet (par exemple Gallina, le langage de programmation de Coq, ne l’est pas).

Définition sur Wikipédia
La liste des langages sur Wikipédia
La liste des langages multiparadigmes sur Wikipédia

Python :

Python est un langage de programmation interprété, multiparadigme et multiplateformes. Il favorise la programmation impérative structurée, fonctionnelle et orientée objet. Il est doté d'un typage dynamique fort, d'une gestion automatique de la mémoire par ramasse-miettes et d'un système de gestion d'exceptions. Il est ainsi similaire à Perl, Ruby, Scheme, Smalltalk et Tcl.

La suite sur Wikipédia

Androïd :

Android est un système d'exploitation mobile fondé sur le noyau Linux et développé actuellement par Google. Lancé en juin 2007 à la suite du rachat par Google en 2005 de la startup du même nom, le système avait d'abord été conçu pour les smartphones et tablettes tactiles, puis s'est diversifié dans les objets connectés et ordinateurs comme les télévisions (Android TV), les voitures (Android Auto), les Chromebook (Chrome OS qui utilise les applications Android) et les smartwatch (Wear OS).

La suite sur Wikipédia

Intelligence artificielle :

L'intelligence artificielle (IA) est « l'ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence ». Elle correspond donc à un ensemble de concepts et de technologies plus qu'à une discipline autonome constituée. Souvent classée dans le groupe des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux), à la logique mathématique (partie des mathématiques et de la philosophie) et à l'informatique. Elle recherche des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension elle désigne, dans le langage courant, les dispositifs imitant ou remplaçant l'homme dans certaines mises en œuvre de ses fonctions cognitives. Ses finalités et son développement suscitent, depuis toujours, de nombreux fantasmes et inquiétudes s'exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques.

Les détails sur Wikipédia

Réseaux de neurones artificiels:

Un réseau de neurones artificiels est un système dont la conception est inspirée, à l'origine, du fonctionnement des neurones biologiques, et qui, par la suite, s'est rapproché des méthodes statistiques. Les réseaux de neurones sont généralement optimisés par des méthodes d’apprentissage de type probabiliste. Ils font partie de la famille des applications statistiques qu’ils enrichissent avec un ensemble de paradigmes permettant de créer des classifications rapides, et d’autre part dans la famille des méthodes de l’intelligence artificielle auxquelles ils fournissent un mécanisme perceptif indépendant des idées propres de celui qui les met en œuvre.

Plus d'infos sur Wikipédia

Machine learning :

Le Machine learning, en français apprentissage machine ou apprentissage automatique ou encore apprentissage statistique est un champ d'études de l'intelligence artificielle qui se fonde sur des approches statistiques pour donner aux ordinateurs la capacité d' « apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour celles-ci. Plus largement, cela concerne la conception, l'analyse, le développement et l'implémentation de telles méthodes.

Les détails sur Wikipédia

Deep learning :

L'apprentissage profond, en anglais deep learning, est un ensemble de méthodes d'apprentissage automatique cherchant à modéliser des données avec un haut niveau d’abstraction. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage. Dans les années 2000, ces progrès ont suscité des investissements privés, universitaires et publics importants, notamment de la part des GAFAM (Google, Apple, Facebook, Amazon, Microsoft).

La suite sur Wikipédia

Yann LeCun :

Yann Le Cun, né le 8 juillet 1960 à Soisy-sous-Montmorency , est un chercheur en intelligence artificielle et vision artificielle (robotique). Il est considéré comme l'un des inventeurs de l'apprentissage profond. Dans les années 1990, il développe la technique des réseaux convolutifs pour la reconnaissance d'image. Il reçoit le Prix Turing le 27 mars 2019, partagé avec Yoshua Bengio et Geoffrey Hinton.

Les détails sur Wikipédia

Cryptographie quantique :

La cryptographie quantique consiste à utiliser les propriétés de la physique quantique pour établir des protocoles de cryptographie qui permettent d'atteindre des niveaux de sécurité qui sont prouvés ou conjecturés non atteignables en utilisant uniquement des phénomènes classiques (non-quantiques). Elle ne doit pas être confondue avec la cryptographie post-quantique qui vise à créer des méthodes de cryptographie résistante à un attaquant possédant un calculateur quantique.

Les calculateurs quantiques sur Wikipédia La cryptographie quantique sur Wikipédia

Peter Shor :

Peter Williston Shor, né le 14 août 1959, est un mathématicien américain. Il est connu pour son travail sur le calcul quantique, en particulier pour l'algorithme de Shor, un algorithme quantique utilisé pour la décomposition en produit de facteurs premiers qui, à l'heure actuelle, est exponentiellement plus rapide que le meilleur algorithme connu tournant sur un ordinateur classique.

Les détails sur Wikipédia

Algorithme de Grover :

En informatique quantique, l’algorithme de Grover est un algorithme de recherche permettant de rechercher un ou plusieurs éléments, répondant à un critère donné, parmi N éléments non classés en un temps proportionnel à racine de N (et non pas proportionnel à N comme avec les algorithmes classiques) et avec un espace de stockage proportionnel à log(N). Il a été découvert par Lov Grover en 1996.

Plus d'infos sur Wikipédia

Problème de l'échiquier de Sissa :

Le problème de l'échiquier de Sissa, est un problème mathématique pouvant s'exprimer ainsi : « On place un grain de riz (ou de blé) sur la première case d'un échiquier. Si on fait en sorte de doubler à chaque case le nombre de grains de la case précédente (un grain sur la première case, deux sur la deuxième, quatre sur la troisième, etc.), combien de grains de riz obtient-on au total ? »

Les calculs sur Wikipédia

Richard Feynman :

Richard Phillips Feynman est un physicien américain, l'un des plus influents de la seconde moitié du XXe siècle., en raison notamment de ses travaux sur l'électrodynamique quantique, les quarks et l'hélium superfluide. Il reformula entièrement la mécanique quantique et inventa les diagrammes qui portent son nom et qui sont désormais largement utilisés en théorie quantique des champs.

La suite sur Wikipédia

IBM Quantum Experience :

Si vous voulez participer à l'IBM Quantum Experience, voici deux liens utiles (en anglais) :

Les infos sur Wikipédia Le site d'IBM

Crédit images et vidéo :
Page précédente - Sommaire - Vous avez la parole