Recherche

data

Extraits

ActuaLitté

Théâtre

Data, Mossoul

Mila Shegg, spécialiste de l'informatique quantique employée en 2025 par un géant du numérique, a oublié trois années de sa vie. A la recherche de sa mémoire perdue, elle entreprend une quête qui la mène au croisement de plusieurs espaces-temps, au coeur des chaos du monde. L'ancien Empire assyrien, la bataille de Mossoul en Irak (2016-2017) et notre futur proche ont en commun un effondrement imminent qui appelle à la résistance et à la poétisation de nos regards. Grâce à une structure dramatique mêlant les lieux et les époques, Joséphine Serre nous plonge avec audace dans une dystopie qui questionne notre rapport au temps. Des tablettes d'argile antiques aux data centers contemporains, elle montre combien le contrôle de l'histoire et des connaissances humaines façonne notre identité et conditionne notre avenir. Son texte kaléidoscope pour sept acteur.rices ou plus est un appel à la lucidité.

09/2019

ActuaLitté

Communication - Médias

Toxic Data

Un polar contemporain qu'il faut lire pour ne pas en être la victime. Avec la montée en puissance des réseaux sociaux, une lame de fond s'abat sur les démocraties : le tissu social se déchire, les opinions sont manipulées, les élections sont déstabilisées. Si les outils numériques ont représenté une innovation majeure dans la production et la diffusion de savoirs, ils ont également leurs côtés obscurs : ils donnent les clés de l'influence sociale à tout acteur, politique ou étatique, qui souhaiterait asseoir ses idées auprès d'un grand nombre de nos concitoyens. Comment se prémunir des intoxications et sauver notre démocratie de l'overdose numérique ? La science révèle notre dangereuse inadaptation à la nouvelle donne numérique mais nous aide également à en combattre les ravages. Livrant une analyse stupéfiante des effets de l'action des GAFAM dans notre quotidien, David Chavalarias propose des pistes concrètes, tant individuelles que collectives, pour nous en protéger.

03/2023

ActuaLitté

Romans policiers

Braquage. [Data noire

Au XXIe siècle, ceux qui contrôlent les données contrôlent l'histoire. " Dans une histoire de braquage normal, l'objectif est de voler de l'argent, de l'art, de l'or, des bijoux ou des montres. Mon braquage est conceptuel. Je vole des données. Je braque les plates-formes médiatiques traditionnelles comme Google ou Facebook ainsi que les données des marques mondiales. Ces données sont actuellement leur bien le plus précieux. Leur seul et dernier moyen d'influence. Au XXIe siècle, ceux qui contrôlent les données contrôlent l'histoire. Le contrôle de l'histoire est le thème de Braquage. Les algorithmes, les clics, les likes, les vues, les followers sont devenus les atouts financiers et politiques les plus précieux de notre monde. "

02/2021

ActuaLitté

Football

Lens Data Story

Cet ouvrage revisite l'histoire du RC Lens à travers un regard inédit. Les figures de style et prouesses rhétoriques laissent place à des chiffres, des images et des graphiques. De Maryan Wisniewski à Raphaël Varane en passant par Daniel Lelercq, du glorieux passé au présent, plongez dans l'histoire passionnante d'un club passionnant !

10/2021

ActuaLitté

Littérature française

Imtimité Data Storage

L'arrivée d'une personne étrangère ébranle le mur du silence et oblige une famille à réapprendre à se parler dans un monde où la technologie est omniprésente.

02/2013

ActuaLitté

Droit informatique

L'Open data

Partie 1 - Le régime général de l'open data Titre 1er - La complexité du cadre juridique de l'open data Titre 2 - Le droit de l'open data public Partie 2 - Les régimes spéciaux de l'open data Titre 1er - L'open data juridique et institutionnel Titre 2 - L'open data au service d'un environnement sain et innovant Partie 3 - La mise en oeuvre de l'open data Titre 1er - La production de l'open data Titre 2 - La réutilisation de l'open data

11/2023

ActuaLitté

Droit informatique

Open data et collectivités territoriales. Réussir sa démarche data

Avec la donnée numérique, les relations entre acteurs publics, acteurs privés et usagers évoluent radicalement. Dans cette nouvelle "économie de l'immatériel", les instances publiques européennes et françaises se sont engagées dans une politique de mise à disposition et de réutilisation libre et facile des données publiques. La loi NOTRe et la loi pour une République numérique ont redistribué quelques cartes et placé entre les mains des collectivités quelques atouts qui, selon la façon dont elles vont en disposer, peuvent être considérés ou non comme contraignants. Le récent rapport du député Eric Bothorel nous rappelle que ce sujet reste toujours d'actualité. Il mérite de connaître un deuxième âge : celui du passage à l'échelle ! Il est certain que l'enjeu d'innovation par la donnée a d'ores et déjà généré des déséquilibres économiques, symbolisés par le Big Tech, et démontré, par des retours d'expérience bien réels, que l'exploitation sans éthique – ni qualité – de la donnée pouvait aboutir aux pires effets, allant jusqu'à la privation des libertés. Il faut donc arriver à défendre une vision humaniste de cette nouvelle ère numérique, rendant compatible le progrès technologique et les progrès des démocraties. Et c'est bien dans cet idéal qu'est pensée l'open data.

11/2021

ActuaLitté

Systèmes d'informations

Précis d'informatique décisionnelle. Data Warehouse, Data Mart, Data Vault, ODS, "étoile","flocons", Business Objects, ETL Informatica

Ce "Précis d'Informatique Décisionnelle" introduit, dans un souci de démystification, des notions essentielles de l'Informatique Décisionnelle. L'ouvrage est composé de thèmes courts et progressifs. Les exemples qui y sont exposés sont très simples pour éviter que leur complexité ne disperse le lecteur des raisonnements et messages sous-jacents. Nous présenterons aussi au lecteur un outil de chargement et un outil d'exploitation du Système d'Information Décisionnel (SID) : - l'ETL Informatica Power Center (IPC) pour le chargement - Business Objects (BO) Designer pour l'exploitation. Cette présentation n'est pas superficielle : elle devrait fournir suffisamment d'éléments au lecteur pour pouvoir réaliser plusieurs applications (Mapping IPC, Workflow IPC, Univers BO) même dans un contexte professionnel.

05/2021

ActuaLitté

Histoire du sport

Data et sport, la revolution. Comment la data révolutionne le sport

En plein coeur de la Coupe du monde de rugby 2023, et à l'approche des Jeux olympiques de Paris, Yannick Nyanga et Aurélie Jean unissent leurs forces dans un ouvrage captivant sur les nouvelles manières d'entraîner les sportifs de haut niveau. Découvrez comment l'analyse de données et les technologies de pointe transforment radicalement le monde du sport, permettant aux athlètes et aux équipes d'améliorer encore et encore leurs performances de façon spectaculaire. Du rugby au football, en passant par la danse et l'athlétisme, Data & sport ? : la révolution dévoile comment chaque discipline tire parti des données pour optimiser les performances. Bien sûr, les auteurs explorent également les menaces soulevées par l'utilisation de ces data, et les problématiques qui en découlent pour la vie privée, la sécurité et l'équité. Que vous soyez passionné ou sportif du dimanche, utilisateur ou professionnel de la data, ou simplement curieux de comprendre comment les nouvelles technologies bouleversent l'entraînement des athlètes, plongez au coeur de cette révolution qui façonne l'avenir du sport, et découvrez comment, dans un futur proche, l'usage de la data touchera tous les sportifs.

08/2023

ActuaLitté

Communication - Médias

Les data contre la liberté

L'ouvrage s'interroge sur la possibilité d'un nouveau despotisme lié à la dépossession et au rétrécissement des options personnelles résultant du microciblage commercial par des outils numériques, à la dictature des prédictions qui commandent les décisions économiques et sociales, et à l'ubiquité de la surveillance politique et policière. Il décrit une société dans laquelle la sollicitude publique et les sollicitations privées en vue d'influer sur les désirs et les craintes ont pris le pas sur l'ancienne discipline autoritaire des corps. Un maternalisme politique diffus, vaguement inspiré de la philosophie du care, tend ainsi à se susbtituer à la promotion des libertés et des droits démocratiques. L'Intelligence Artificielle (IA) connexionniste, bien que mathématiquement très sophistiquée, qui est l'instrument privilégié de cette mutation, nuit directement à l'exercice de la réflexion humaine chez les prestataires comme chez les usagers, et à une liberté appréciative privilégiant chez chacun l'autodétermination des options.

04/2022

ActuaLitté

Sociologie

Ainsi parlait le Big data

Le Big data sait tout de vous, mais que savez-vous de Big data ? L'" algorithmisation du monde " est en marche. Si l'on y réfléchit bien, l'idée d'organiser l'information est le principe même d'un moteur de recherche comme Google. Le Big data va façonner le siècle, c'est un nouvel instrument de pouvoir, et il est urgent de mettre en lumière les méthodes des entreprises qui influencent notre mode de vie. Dans la dystopie Lovestar, Andri Snaer Magnason se demande quelle part de liberté il reste à l'homme quand la science décide pour le bonheur de tous... Un monde où le meilleur ami qui vous conseille un livre est peut-être tout simplement payé pour cela sans que personne ne s'en doute. Un monde où les mégadonnées décident de tout, où des algorithmes ont une visée politique (cf. affaire Cambridge Analytica). Grâce au profilage réalisé par les algorithmes, le temps d'attention des consommateurs est en passe de devenir la [seule ? ] référence de la valeur des services. " Si j'avais demandé aux gens ce qu'ils voulaient, ils auraient répondu des chevaux plus rapides ", écrit Henry Ford. Et si le Big data ne constituait en définitive qu'un terrible aveu de faiblesse et d'impuissance générale, intégrant une arme de destruction massive à l'intérieur ?

10/2018

ActuaLitté

Programmation

Python pour la data science

Le best-seller O'Reilly sur la data science avec Python enfin traduit en Francais ? Pour de nombreux chercheurs, Python est un outil essentiel en raison de ses bibliothèques pour stocker, manipuler et obtenir un aperçu des données. Ce livre décrit toutes les ressources dont vous pouvez disposer pour mettre en oeuvre vos applications : IPython, NumPy, Pandas, Matplotlib, Scikit-Learn et d'autres outils associés. Les scientifiques en activité et les utilisateurs de données familiarisés avec la lecture et l'écriture de code Python trouveront avec cette référence complète l'outil idéal pour s'attaquer aux problèmes quotidiens : manipuler, transformer et nettoyer les données ; visualiser différents types de données ; utiliser les données pour créer des modèles statistiques ou d'apprentissage automatique. Ce livre est tout simplement la référence incontournable pour le calcul scientifique en Python. Vous apprendrez à utiliser : IPython et Jupyter : fournissent des environnements de calcul pour les data scientists utilisant Python NumPy : inclut le ndarray pour un stockage et une manipulation efficaces de tableaux de données denses en Python Pandas : comprend le DataFrame pour un stockage et une manipulation efficaces des données étiquetées / en colonnes en Python Matplotlib : inclut des fonctionnalités pour une gamme flexible de visualisations de données en Python Scikit-Learn : pour des implémentations Python efficaces et propres des algorithmes d'apprentissage automatique les plus importants et les plus établis

04/2022

ActuaLitté

Science-fiction

Data Song Tome 2 : Sagittarius

Un mystérieux S. O. S. en provenance d'une colonie clandestine proche du trou noir géant Sagittarius semble annoncer que les Lunes sont de retour. L'amiral La Rochelle envoie une Flotte de guerre et un vaisseau d'exploration...

05/2021

ActuaLitté

Informatique

Big Data & Streaming. Le traitement streaming & temps réel des données en Big Data

Le Big Data est désormais bien établi ! Il a atteint son paroxysme ces dernières années avec les objets connectés, l'intégration des capteurs dans les objets de la vie courante (voiture, réfrigérateur, télévision, etc.). Ces objets produisent des données en streaming. Beaucoup de cas d'usage et de modèles économique s'appuient aujourd'hui sur des données générées en streaming. Cet ouvrage est un manuel didactique qui a pour but de vous aider à développer les compétences de base nécessaires pour valoriser les don- nées produites en streaming. Que vous soyez freelance, consultant, Data Scientist, Architecte, Développeur ou Manager, cet ouvrage vous aidera à - Comprendre les concepts et notions essentiels pour aborder avec aisance la gestion des données streaming : - Appréhender et mettre en oeuvre les architectures nécessaires pour ingérer efficacement les données générées en streaming, notamment le Data Lake, les bus d'événements, les architectures Lambda, les architectures kappa, et les architectures hybrides ; Monter en compétence sur les technologies de l'écosystème Hadoop dédiées à l'ingestion et au traitement des données produites en streaming, notamment Apache Kafka, Spark Streaming, Flume, Apache Samza, Apache Storm et S4. Pour faciliter l'atteinte de ces trois objectifs, chaque chapitre s'achève par un rappel des points clés et un guide d'étude.

07/2019

ActuaLitté

Gestion

Big Data, Smart Data, Stupid Data... Comment (vraiment) valoriser vos données. Petit manuel à l'usage de ceux qui veulent accélerer et réussir

Demain, tout, absolument tout, produira de la data. Les entreprises qui sauront s'en servir réussiront. Les autres disparaîtront. Vous souhaitez décoller et réussir ? Ce livre est fait pour vous ! Pratique et piquant, il vous guidera étape par étape. Pour réussir, il vous faut tout bousculer : vos procédures, vos talents, votre culture... jusqu'à votre proposition de valeur ! Stratégies, exécution, casting, contraintes règlementaires... ce petit manuel traitera de tout, sans tabou, pour vous permettre d'aller droit au but ! N'attendez plus, lancez-vous ! - Le phénomène " Big Data " fait couler beaucoup d'encre, mais engendre, à date, peu de gains business. Pourquoi ? - Quels sont les ingrédients pour réussir ? De la stratégie (" faire mieux, ou faire autrement ? "), à l'exécution (" priorisation des cas d'usage "), en passant par la culture et l'organisation (" profils, positionnements, valeurs "). - Réglementation européenne sur la data (GDPR, en application le mai 2018). Qu'est-ce qu'elle comporte (ex : article 20 sur la portabilité des données ") ? Comment réagir, et la tourner en opportunité ?

01/2018

ActuaLitté

Science-fiction

Elecboy Tome 3 : La Data Croix

En 2122, le monde d'avant a disparu depuis longtemps. Le jeune Joshua vit dans une communauté, quelque part en Amérique du Nord. Il s'interroge sur ses origines et tente de trouver sa place dans cette nouvelle société, en proie à la brutalité et à la sauvagerie. Aujourd'hui, l'heure de la révélation est enfin arrivée. Rejeté par les siens à cause de sa différence - Joshua est en réalité un androïde -, il est recueilli par une femme masquée : la Grande Ordonnatrice. Cette femme énigmatique lui annonce qu'elle va lui ouvrir les portes d'un passé oublié. Joshua apprend alors comment les humains, il y a de cela un siècle, ont découvert le transhumanisme et donné naissance à l'homo deus. Avant de sombrer dans la violence et le chaos, préludes à la fin de leur civilisation... Troisième tome d'une saga d'anticipation en quatre albums, teintée de Dune et d'Akira, servie par le graphisme somptueux et l'imaginaire flamboyant de Jaouen Salaün.

08/2022

ActuaLitté

Informatique

Big Data et Machine Learning. Les concepts et les outils de la data science, 3e édition

Cet ouvrage s'adresse à tous ceux qui cherchent à tirer parti de l'énorme potentiel des technologies Big Data, qu'ils soient data scientists, DSI, chefs de projets ou spécialistes métier. Le Big Data s'est imposé comme une innovation majeure pour toutes les entreprises qui cherchent à construire un avantage concurrentiel de l'exploitation de leurs données clients, fournisseurs, produits, processus, etc. Il a en outre permis l'émergence des techniques d'apprentissage automatique (Machine Learning, Deep Learning...) qui ont relancé le domaine de l'intelligence artificielle. Mais quelle solution technique choisir ? Quelles compétences métier développer au sein de la DSI ? Ce livre est un guide pour comprendre les enjeux d'un projet Big Data, en appréhender les concepts sous-jacents et acquérir les compétences nécessaires à la mise en place d'une architecture d'entreprise adaptée. Il combine la présentation : - de notions théoriques (traitement statistique des données, calcul distribué...) ; - des outils les plus répandus ; - d'exemples d'applications, notamment en NLP (Natural Language Processing) ; - d'une organisation typique d'un projet de data science.

08/2019

ActuaLitté

Informatique

Big Data, Machine Learning et apprentissage profond

Cet ouvrage montre comment appliquer les méthodes de machine learning aux Big Data, et comment appliquer les méthodes plus spécifiques de deep learning aux problèmes plus complexes relevant de l'intelligence artificielle, tels que la reconnaissance d'image et le traitement du langage naturel.

04/2019

ActuaLitté

Mathématiques

Statistical and Data Handling Skills in Biology

All biologists need to be able to handle numbers, yet students of biology often approach this topic fearfully. This guide helps to, develop key skills for the study of biology in the minimum time through guided practise. Statistical and Data Handling Skills in Biology is an easy-to-use handbook which concentrates on essentials. It explains why certain mathematical concepts can help in biology and describes them in simple language and pictures with few equations. Numerous worked examples and problems from real biological situations are provided. The book first shows how to handle numbers and S.I. units. It then explains why variation is such a problem in biology and shows how to use statistical tests to separate real effects from the background variation. Finally it explains how to choose appropriate statistical tests to, analyse data and how to improve the design of experiments. Students will develop confidence in dealing with numbers by working through the problems provided. Key features include: - takes a biological viewpoint; - clear, concise coverage of essential concepts; - helpful explanations and pictures with a minimum of equations; - step-by-step guides to statistical tests; - guidance on using computer-based statistical packages; - decision charts for choosing statistical tests; - worked examples and problems, with solutions provided. This book makes an ideal companion for biologists at all levels, as a text for elementary courses for sixth form and first year undergraduate students, a self-study guide, or as a laboratory handbook for the working biologist.

01/2000

ActuaLitté

Assurances

Appliquer la Data Science à l'assurance

Les capacités technologiques augmentant très vite et les bases de données se multiplient. Face à cette nouvelle masse importante de données, les modèles actuariels classiques deviennent perfectibles grâce à une nouvelle discipline qu'est la " Data Science ". L'idée de Data science recouvre la capacité de traiter un spectre de données plus large que celui couvert généralement par les actuaires. Or, la Data science peut offrir de nouvelles opportunités aux assureurs. Par exemple, en santé, les modèles Data Science, par une étude plus poussée des données à disposition et l'intégration de données externes, permettent d'affiner l'analyse de la consommation médicale et d'identifier de potentielles dérives sur des groupes d'assurés présentant des caractéristiques communes. L'objectif de l'ouvrage est d'expliquer ce qu'est cette nouvelle discipline, complémentaire à l'actuariat ; de présenter le métier de Data scientist qui se développe dans les entreprises d'assurance ; et d'étudier les applications pratiques que cela peut avoir dans le secteur de l'assurance.

03/2021

ActuaLitté

Actualité médiatique internati

Le petit dico critique du big data

Ce lexique met les mots du big data à la portée de tous, avec une approche critique, historique et sociologique. Il permet une compréhension des enjeux du big data, fournit des exemples concrets et une analyse critique des utilisations pour tous les domaines (assurances, élections, réseaux sociaux, économie, information et désinformation, santé, gouvernance, ville intelligente, surveillance, etc.) L'auteure et tous les intervenants ont une expertise largement reconnue. Ils travaillent sur l'ensemble du territoire : Angers, Bordeaux, Compiègne, Lille, Lyon, Lille, Montpelier, Nantes, Nancy, Nice, Paris, Rennes, Toulouse, Rouen. C'est le premier ouvrage qui propose une bibliographique complète sur le big data et tous ses usages. Destiné à tous ceux qui veulent comprendre le big data, ses usages, ses enjeux, ses critiques, de manière synthétique et pratique. Préface de Dominique Cardon, auteur de nombreux ouvrages dont A quoi rêvent les algorithmes, Seuil, 2015.

05/2023

ActuaLitté

Informatique

Python pour la data science pour les nuls

Découvrez Python le langage de prédilection de la science des données La science des données ou data science consiste à extraire des connaissance dans un flot de données. Elle utilise des techniques et des théories tirées de domaines comme les mathématiques et la statistique. Les méthodes qui s'adaptent aux big data sont particulièrement intéressantes dans la science des données. Ce livre est destiné à tous ceux qui travaillent dans le domaine de l'analyse de données et montre comment mettre en oeuvre le langage Python pour dans ce domaine et uassi celui de la statistique. Il traite également de Google Colab, un outil qui permet d'cire du code Python dans le cloud. Au programme : Probabilités Distributions aléatoires Tests d'hypothèses Regressions Modèles de prédiction

11/2019

ActuaLitté

Programmation

Data Science avec Python. Avec Jupyter et PyCharm

Ce livre est destiné aux personnes souhaitant avoir une première immersion dans le domaine de l'analyse de données avec le langage de programmation Python et les librairies dédiées à l'analyse de données que sont NumPy, Pandas, Matplotlib et Seaborn. Dans ce livre, nous verrons principalement comment explorer, manipuler et visualiser des données structurées, c'est-à-dire des tableaux contenant des lignes et des colonnes. La première partie aborde l'utilisation de la librairie NumPy qui est une librairie Python dédiée au calcul scientifique fournissant des fonctions très performantes de calcul, mais aussi des structures de données spécialisées et remarquablement performantes. La seconde partie aborde l'utilisation de la librairie Pandas qui est une librairie Python dédiée à la Data Science. Il s'agit de la librairie Python la plus populaire et la plus performante pour faire de l'analyse de données. Cette librairie Pandas amène avec elle deux nouvelles structures essentielles pour l'analyse de données qui sont les structures Series et DataFrame. La troisième partie aborde l'utilisation de la librairie Matplotlib qui est une librairie graphique très connue en Python car elle est puissante, très simple à prendre en main et chaque élément de la figure peut être configuré finement via un grand nombre de paramètres disponibles. La quatrième partie aborde l'utilisation de la librairie Seaborn qui est la librairie la plus populaire pour la visualisation de graphique. En réalité, cette librairie s'appuie sur Matplotlib et elle apporte des fonctions supplémentaires permettant de générer des graphiques plus travaillés, aux allures plus modernes, et ce de manière très simple. La cinquième partie aborde la création d'une application autonome pour visualiser des graphiques élaborés avec les librairies Matplotlib et Seaborn. Nous y verrons notamment comment utiliser le composant FigureCanvasQTAgg pour visualiser des graphiques aux allures modernes dans un projet PyCharm avec Python et la librairie des contrôles PyQt5.

03/2022

ActuaLitté

Communication - Médias

Toxic Data. Comment les réseaux manipulent nos opinions

A partir d'exemples concrets et de conseils, ce manuel d'autodéfense vise une prise de conscience des écueils du numérique et de son influence sur nos vies et nos démocraties. En positionnant le lecteur comme la clé de voûte d'une société numérique renouvelée, il s'inscrit dans les défis majeurs de notre temps.

03/2022

ActuaLitté

Entrepôt de données

Data Scientist et langage R. Autoformation aux bases de l'intelligence artificielle dans l'univers de la data, 3e édition

Ce livre, pour lequel deux axes de lectures sont possibles, a pour objectif de proposer une formation complète et opérationnelle sur les data sciences. Le premier axe permet au lecteur d'apprendre à délivrer des solutions complètes via l'usage du langage R et de son écosystème, et le second lui permet d'acquérir une culture approfondie des data sciences tout en faisant abstraction du détail du code R grâce à l'utilisation d'un outillage interactif qui ne nécessite pas d'apprendre à coder en R. Ainsi, les auteurs proposent un parcours didactique et professionnalisant qui, sans autre prérequis qu'un niveau Bac en mathématiques et une grande curiosité, permet au lecteur : - de s'intégrer à une équipe de data scientists ; - d'aborder la lecture d'articles de recherche en IA ou data sciences ; - de développer en langage R ; - et de dialoguer avec une équipe projet comprenant des data scientists. Le livre ne se cantonne pas aux algorithmes classiques du Machine Learning (arbres de décision, réseaux neuronaux...), il aborde divers sujets importants comme le traitement du langage naturel, les séries temporelles, la logique floue, la manipulation des images. Les sujets pratiques ou difficiles ne sont pas éludés. Le livre appréhende l'accès aux bases de données, les processus parallèles, la programmation fonctionnelle et la programmation objet, la création d'API, le partage de résultats d'analyse avec R Markdown et les dashboard Shiny, l'étude des représentations cartographiques ou encore l'implémentation du Deep Learning avec TensorFlow-2 et Keras. A la demande des lecteurs, cette troisième édition présente également une ouverture vers le langage Python et son interface avec R ainsi que l'installation d'une application R/shiny accessible sur internet via un serveur Linux abrité sur un cloud professionnel. Une extension vers l'utilisation de R pour les calculs numériques et les calculs mathématiques pour l'ingénierie dans le même esprit que MatLab et l'usage basique d'un outil de prototypage rapide de modèles de Machine Learning (BigML) en "point and click" permettra aussi au lecteur ne voulant pas utiliser R de produire des modèles de prédiction sans coder ! La dynamique de l'ouvrage soutient le lecteur pas à pas dans sa découverte des data sciences et l'évolution de ses compétences théoriques et pratiques. Le manager pourra surfer sur l'ouvrage après avoir lu attentivement le bestiaire des data sciences de l'introduction, qui sans vulgarisation excessive présente le sujet en faisant l'économie de mathématiques ou de formalismes dissuasifs. Les programmes R décrits dans le livre sont accessibles en téléchargement sur le site www. editions-eni. fr et peuvent être exécutés pas à pas.

07/2021

ActuaLitté

Sports

Big Data Foot. Comment les datas révolutionnent le football ?

Des expected goals au Packing, en passant par la dangerousity et le ghosting, un nombre spectaculaire de statistiques, d'indices, de modèles complexes sont récemment apparus dans le football. Pourquoi pouvait-on prévoir l'éclosion de Sadio Mané dès son transfert du RB Salzbourg à Southampton ? Pourquoi Arsenal et Naples auraient dû priver respectivement Leicester et la Juventus de leur titre de champions en 2016 ? Quels sont les secrets offensif et défensif des équipes entraînées par Lucien Favre ? En quoi la paire Pogba-Kanté était-elle si complémentaire lors de la Coupe du monde 2018 ? Dans cet ouvrage passionnant, Christoph Biermann montre, à partir d'exemples récents piochés dans les plus grands championnats européens, l'influence croissante du big data appliqué au football.

09/2019

ActuaLitté

Droit

Je prends mon poste de DPO data protection officer

Vous venez d'être nommé(e) DPO de votre collectivité, vous voici au pied du mur. Une mission exaltante vous incombe désormais, celle de faire évoluer votre organisation pour que toutes les données personnelles qu'elle manipule soient traitées dans le respect des règles du RGPD. Vaste programme ! Etre le moteur du changement est toujours une tâche difficile au quotidien. Si personne ne pense à mal, les opérationnels se soucient avant tout de leurs propres contraintes. La collectivité est au croisement de multiples autres réglementations, parfois contradictoires, et les échéances électorales ne sont jamais éloignées ! Mais ne vous découragez pas, ce petit ouvrage vous aidera à définir vos priorités et vous donnera quelques clés pour démarrer du bon pied et réussir.

07/2019

ActuaLitté

Informatique

Hadoop. Devenez opérationnel dans le monde du Big Data

Depuis plusieurs années, la France montre au travers du projet de Nouvelle France Industrielle (NFI) son ambition de se positionner stratégiquement sur le Big Data. Par ce projet, l'Etat reconnaît officiellement qu'au-delà de tout l'engouement médiatique autour du Big Data, la transition vers l'ère Numérique est bien réelle et que les opportunités du Big Data sont bel et bien existantes. Ce livre a pour objectif d'équiper le lecteur de toutes les compétences dont il a besoin pour saisir les opportunités offertes par le Big Data. Il s'adresse à toute personne qui souhaite prendre le virage du Numérique et travailler dans le Big Data : étudiants, consultants, analystes, chargés d'étude ou de recrutement Data, commerciaux de ESN, responsables de projet, développeurs, managers ou encore dirigeants d'entreprise. Pour tirer profit au maximum de la lecture de ce livre, des compétences de base dans le domaine des bases de données, de la programmation et du SQL sont un prérequis indispensable. En substance, le livre explique les nouvelles approches de traitement des données à large échelle, Hadoop (son architecture, son fonctionnement, ses évolutions), le stockage distribué des données, l'exécution du SQL sur Hadoop, les approches de traitement des données en streaming et en temps réel, les caractéristiques de l'ère Numérique ainsi que le leadership nécessaire pour saisir les opportunités de l'ère Numérique en général et du Big Data en particulier. Vous découvrirez ainsi notamment : - Deux cas d'utilisation d'Hadoop dans les projets Big Data innovants d'EDF et d'Air France - Les évolutions Big Data en cours dans le CAC40 et l'Europe - Les modèles architecturaux utilisés pour gérer le Big Data - Les modèles de calcul distribués utilisés pour traiter le Big Data, notamment le MapReduce - Le fonctionnement détaillé d'Hadoop - Les principes du stockage distribué utilisé pour stocker les données en Big Data, notamment le HDFS - Les quatre grandes faiblesses d'Hadoop et ses futures évolutions - La sécurité dans Hadoop et les révélations d'Edward Snowden - L'écriture et l'exécution des requêtes SQL dans Hadoop - Les approches de traitements des données streaming et temps réel - Les sept critères indispensables pour choisir sa distribution Hadoop - Les trois caractéristiques majeures de l'ère Numérique - Les cinq clés à utiliser pour détecter et saisir les opportunités du Big Data - Les trois pièges à éviter pour réussir dans le Big Data - Un plan simple en trois étapes pour anticiper et saisir les nouvelles opportunités du Numérique - Les quatre clés indispensables pour réussir vos projets Big Data - Les trois raisons de ne plus attendre pour apprendre Hadoop - Les six métiers du Big Data vers lesquels s'orienter - Les trois certifications disponibles pour crédibiliser ses compétences en Big Data - Une présentation de trois masters spécialisés dans le Big Data - Les deux moyens les plus utiles pour développer ses compétences en Big Data lorsqu'on a peu de moyens. Pour faciliter la compréhension de l'ouvrage, chaque chapitre s'achève par un rappel des points clés et un questionnaire qui permettent au lecteur de consolider ses acquis.

04/2017

ActuaLitté

Informatique

Apache Spark. Développez en Python pour le big data

Ce livre sur le framework Apache Spark vous permet d'apprendre à développer des applications en Python en vous appuyant sur l'analyse et le traitement de données volumineuses ainsi que sur la notion d'apprentissage automatique. Après quelques définitions de termes liés au domaine de la data, vous découvrez les fondements de Spark. Vous appréhendez l'architecture logicielle du framework, ses composants et les différents langages avec lesquels il est possible de développer. Vous entrez ensuite concrètement dans la transformation de données. Fonctions numériques, alphanumériques, ajouts d'information, suppressions, agrégations de premier ordre et plus complexes sont à l'honneur. Des fonctionnalités plus avancées telles que les fonctions de fenêtrage et celles définies par les utilisateurs sont étudiées et les nombreuses API de Spark parcourues, tout en étant illustrées par des exemples. Dans la suite du livre, l'auteur dévoile l'apprentissage machine. Apprentissage supervisé, non supervisé, profond et moteurs de recommandation sont autant de concepts détaillés. Vous découvrez les différents algorithmes présents dans Spark, les manières de préparer des données à l'entraînement ainsi que les possibilités d'évaluation d'un système prédictif au travers de plusieurs mises en pratique. Les notions d'arbres de décision, de forêts aléatoires, de réseaux de neurones, de régressions linéaires et de factorisation de matrices vous sont expliquées ainsi que le traitement des informations numériques et la vectorisation de textes. Pour finir, un chapitre met en avant l'industrialisation de Spark. Déployer, déboguer et tester son application ainsi que les subtilités de l'outil pour assurer une performance optimale sont autant d'éléments cruciaux détaillés. Si les exemples de code du livre sont en Python, langage aujourd'hui le plus utilisé avec Spark, certains sont en Scala, API la plus aboutie, pour vous apporter une vision complète du framework.

01/2022

ActuaLitté

Art contemporain

People Love War Data & Travels. Edition bilingue français-anglais

Cette première monographie consacrée au travail de l'artiste et réalisateur franco-algérien Neil Beloufa reviendra sur quinze années de travail à travers un ensemble de documents et d'archives, et de textes originaux revenant sur les différents aspects de sa pratique. Il s'agira à la fois de mettre l'accent sur les méthodes de travail de l'artiste, ses vidéos et films notamment le long-métrage Occidental (2017) et la websérie Screen Talk (2020) et des expositions marquantes comme le projet controversé L'Ennemi de mon ennemi, présenté au Palais de Tokyo, Paris, en 2018 et au-delà, de discuter des rapports paradoxaux entre politique et art contemporain, entre formes esthétiques et méthodes de production.

09/2021