Mot clé : BIG-DATA-2

04/06/2018 – Les défis de l’I.A. – Matthieu Cord

L'intelligence artificielle (IA) en question, avec Matthieu Cord, le 4 juin

Exposé
Je suis docteur en traitement d’images. J’apprends avec un ordinateur à regarder automatiquement la télé. L’analyse de l’image couvre plusieurs aspects :
•    La restauration de l’image
•    La compression de l’image i.e la réduction d’infos transmises sans perte de sens,
•    L’interprétation de l’image
•    La détection d’images équivalentes…
La première question à se poser est : Comment traduire informatiquement les critères de ressemblance des images. ? C’est une question mathématique ; On rentre alors dans le problème de classification des images i.e de produire une étiquette décrivant le contenu de l’image puis dans celui de la production d’une légende qui est une description plus détaillée de l’image, puis celui de générer des images…
La chaîne de traitement peut-être plus ou moins « profonde ».
Dans le « deep learning », les analyses informatiques des images ne sont pas totalement incluses dans le programme informatique initial. ICe dernier va fixer lui-même âr apprentissage tous les coefficients de la table de mixage : on fixe donc un cadre mais pas tous les paramètres. On aboutit ainsi à une machine plus performante capable de trouver les bons paramètres par apprentissage selon une logique :
Essai – erreur – correction
Les machines vont ainsi s’améliorer au cours de l’entrainement. Il faut beaucoup d’images pour rendre le processus efficace. Une fois la machine entraînée, elle saura faire une généralisation toute seule. C’est un bon exemple d’intelligence artificielle, qui se prolongera vers des problèmes de perception plus complexes. L’accroissement de la capacité d’adaptation du système va de pair avec plus d’autonomie. La nature de l’IA évolue avec le temps  (exemple de l’« avion sans pilote du XIXème au XXème siècle : la voiture automatique a subi un traitement « deep learning » contrairement à l’avion sans pilote.

Lire la suite →

05/12/2016 – Big Data, révolution anthropologique ? Gilles Babinet

Big Data : une révolution anthropologique ? Le 5 décembre avec Gilles Babinet

Exposé

J’ai eu un parcours d’entrepreneur avec des succès variés mais qui m’a permis d’« embrasser » le « numérique. Une tribune dans « Les Échos en 2010 » m’a conduit à la présidence d’un Conseil national du numérique (CNN) créé en avril 2011 par Nicolas Sarkozy. J’ai été alors stupéfait de l’incompétence inquiétante des politiques et des fonctionnaires de droite comme de gauche. Cette dernière (via Fleur Pellerin) m’a nommé « digital champion » auprès de la Commission de Bruxelles à l’occasion d’un remaniement du Conseil en décembre 2012.

Le croisement de trois forces est à l’œuvre dans ce domaine :

  • Le doublement tous les deux ans du nombre de transistors présents sur une puce de silicium (sa puissance). Prédit par Moore (un des trois fondateurs d’INTEL) en 1965, il s’est avéré exact[1].
  • En 2025 tout le monde sera connecté à Internet de diverses façons. Un nombre considérable de données (data) est généré SUR LE NET avec une croissance explosive[2] en provenance d’une « multitude » (le « crowd ») de sources[3].
  • Depuis une dizaine d’années existe une nouvelle génération « d’algorithmes » permettant de gérer ces données des centaines et même des milliers de fois plus vite qu’auparavant. Cet ensemble de technologies est couvert par l’appellation de « big data ». Il permet de mieux comprendre[4] notre société, notre environnement et de faire apparaître avec une précision inconnue jusqu’alors les contours des politiques publiques souhaitables et de leur évolution utile, débouchant sur un  accroissement considérable de leur efficacité (et/ou une diminution importante de leurs coûts).

Il en résultera des caractéristiques fortes de la révolution numérique :

-          Les pyramides (ou processus) traditionnelles de prise des décisions seront bouleversées de façon irrémédiable conduisant à une véritable révolution anthropologique.

-          La façon dont les jeunes se serviront de leur cerveau sera effectivement bien différente de la nôtre. Ils sauront manier des savoirs différents et seront ainsi capables de générer des co-créations grâce au phénomène de multitude. Des super pouvoirs capables de mailler par des réseaux des compétences très pointues et surtout inattendues émergeront .

-          On ne se heurtera plus à la hiérarchie souvent bloquante des « sachants ». Plus les pouvoirs seront verticaisés, moins ils seront en adéquation avec cette dynamique et l’« esprit du temps » qui favorisera un monde « plus plat ».

Lire la suite →

30/03/2015 : Big Data – Francis Bancilhon, Christian Frisch.

CCBigdata

Exposé
Il faut distinguer :

• L’open data, ensemble des données publiques utilisées par l’État et mises à disposition du public selon les dispositions de la loi du 17 juillet 1978 portant diverses mesures d’amélioration des relations entre l’administration et le public. Cela peut concerner les données électorales, l’utilisation de la réserve parlementaire, un certain nombre de dépenses publiques, la criminalité, les accidents etc …
• Le crowd sourcing ou externalisation ouverte ou production participative, est l’utilisation par appel ciblé ou ouvert à la créativité et à l’intelligence, du savoir-faire ou des connaissances d’un grand nombre de personnes pour réaliser certaines tâches traditionnellement effectuées par un employé ou un entrepreneur. Exemple : en France 100 000 personnes ont construit la carte des impacts du tremblement de terre d’Haïti. On n’a plus besoin de l’IGN qui coûte 200 M€ à la collectivité. … ou encore BANO, banque d’adresses nationales ouverte très importante pour les livreurs… http://fr.wikipedia.org/wiki/Crowdsourcing
• Le big data (http://fr.wikipedia.org/wiki/Big_data) qui est l’utilisation de données de masse de faible densité en information générées par tout un chacun mais dont le grand volume permet d’inférer des lois donnant au big data des capacités prédictives.
Exemples de données : ticket de caisse, localisation GPS, navigation internet, réseaux sociaux etc… Ces informations sont captées de façon massive au moyen de cookies qui peuvent s’accrocher à une image sur le site, une identification, à l’adresse IP de l’ordinateur, aux localisations Orange …
On a maintenant des algorithmes de traitement de ces gros volumes, faciles à utiliser à partir de gros serveurs loués pour pas cher. Cela donne des résultats étonnants : Une famille US a ainsi reçu des infos sur des couches de bébés et a ainsi découvert que ces .filles de 16 ans étaient enceintes. Epidémiologie : suivi de la progression d’une grippe ou de l’emploi. Adéquation de la pub reçue à votre profil …

Lire la suite →