Des données
intelligentes
au service de
vos objectifs.

Nous produisons des données originales et actionnables dans des plateformes développées sur mesure.

en savoir plus

l’intelligence générale des données

Nous sommes une entreprise engagée dans cette révolution majeure, celle de l’utilisation des données comme matière première pour produire des changements radicaux dans nos modes de création de valeur.

dans le mouvement mondial pour l’ouverture des données

des opportunités exceptionnelles et des nouveaux défis naissent tous les jours

produire des données originales est notre vocation

produire des données uniques est notre façon d’enrichir cet énorme gisement d’opportunités

en développant une intelligence artificielle au service de l’Humain

créer des données originales nécessite un investissement constant en intelligence artificielle

en développant une intelligence artificielle au service de l’Humain

créer des données originales nécessite un investissement constant en intelligence artificielle

Dans les secteurs de l'énergie, de la rénovation, du bâtiment, de l’assurance, de la finance verte et de la culture, nous mobilisons des partenaires techniques et scientifiques dans des projets publics et privés pour construire des plateformes numériques qui permettent un développement économique respectueux de la planète.

notre expertise

produire des données originales

Nous collectons des données disponibles et non-personnelles pour produire avec nos outils d’intelligence artificielle, une data library unique constituée de données originales.

L’ouverture des données et la disponibilité des données non-personnelles est une opportunité sans précédent pour créer de la valeur. Construire des jeux de données uniques et les rendre actionnables permet de faire émerger des nouvelles opportunités.

produire des
données originales

grâce à nos outils d'intelligence artificielle et à partir d'images, de textes, de données structurées, nous créons des jeux de données originaux

mettre en relation
les différentes données

à travers notre moteur de relations et la constitution de jeux de données, les données que nous produisons deviennent pertinentes, par métier

rendre la donnée actionnable

À travers une intégration dans leur système d’information ou par le développement de plateformes métiers, les données deviennent un outil de prise de décision ou de structuration de nouvelles opportunités.

Nos jeux de données sont actionnables selon les contraintes métiers et le périmètre d’action de nos clients et partenaires.

des fiches d’opportunité
et des clusters métier

nous livrons des fiches d’opportunité et des clusters métier directement dans les outils de nos clients à travers des solutions et des interfaces développées sur mesure

des plateformes développées
sur mesure

nous développons des plateformes permettant à nos partenaires de mobiliser eux-mêmes les bases de données et nos outils d’intelligence artificielle pour générer leurs propres fiches et clusters pour créer de la valeur, dans des projets nouveaux ou existants

  • grâce à nos outils d'intelligence artificielle et à partir d'images, de textes, de données structurées, nous créons des jeux de données originaux

  • à travers notre moteur de relations et la constitution de jeux de données, les données que nous produisons deviennent pertinentes, par métier

  • nous livrons des fiches d’opportunité et des clusters métier directement dans les outils de nos clients à travers des solutions et des interfaces développées sur mesure

  • nous développons des plateformes permettant à nos partenaires de mobiliser eux-mêmes les bases de données et nos outils d’intelligence artificielle pour générer leurs propres fiches et clusters pour créer de la valeur, dans des projets nouveaux ou existants

plateformes

Nos plateformes dédiées permettent de mobiliser des acteurs complémentaires autour des données pertinentes, pour produire des économies d'échelle et créer de nouveaux services. La plateforme devient ainsi une véritable infrastructure mutualisée pour l’exploitation et la mise en valeur des données.

Nous simplifions l’échange, l’utilisation et la valorisation des données en créant des plateformes sur mesure.

un exemple ?

team

Grégory Labrousse
CEO

Pierre Lescure
Co-Founder & Board Member

Lila Tretikov
Co-Founder & Board Member

Emmanuel Bacry
Co-Founder & Board member

Pierre-Alain De Mallerey
Board member

Éric Euvrad
Board member

Raoul Saada
Senior Strategic Deployment Finance Sector

Sebastián Sachetti
Senior Strategic Deployment Public & Heritage Sector

Nicolas Berthelot
Lead Data Strategy

Louis Petros
Lead Knowledge Strategy

Gaël Grasset
Lead Product

Servane Khaouli
HR Business Partner

Alexandre Bacchus
Data Scientist

Duccio Piovani
Data Scientist

Charles Hutin-Persillon
Data Strategist

Aymeric Flegeo
Data Engineer

Guillaume Larcher
Developer Product

Vincent De Chillaz
Data Analyst - Quality

Alexander Usoltsev
Computer Vision Scientist

  • Grégory Labrousse

    CEO

    Président de nam.R, serial-entrepreneur, spécialisé dans l’environnement et dans le conseil en réduction de coûts. Fondateur d’un groupe spécialisé en finance verte, agro-écologie et éco-tourisme.

  • Pierre Lescure

    Co-Founder & Board Member

    Auteur du rapport sur l’Économie numérique en 2013, qui posait entre autre l'importance des données et de leur ouverture, Pierre a participé à la création de nombreuses entreprises, gardant à coeur d'être toujours à la pointe des technologies concernées (Molotov.tv, Canal+). Pierre est aussi administrateur du groupe de cybersécurité Kudelski, du groupe Lagardère et président du Festival de Cannes.

  • Lila Tretikov

    Co-Founder & Board Member

    Lila est la Chief Executive Officer de l’initiative Terrawatt, “bras armé” de l’Alliance Solaire Internationale, lancée avec le soutien de la Président de la République française. Ancienne présidente de la Wikimedia Foundation, où elle est à l’origine des grandes missions de digitalisation et d’intelligence artificielle de Wikipedia, Lila est une experte reconnue en machine learning, à la carrière impressionnante (Chief Product Officer de SugarCRM, CEO de Raskspace...). Elle a notamment été nommée dans la Forbes list of The World's 100 Most Powerful Women (2014) ainsi que dans la liste du San Francisco Chronicle “21 Most Powerful Women in Bay Area Technology”, elle a reçu un Stevie Award for Woman in Business, et est membre des Young Leader du World Economic Forum.

  • Emmanuel Bacry

    Co-Founder & Board member

    Directeur de recherche au CNRS à l’Université Paris Dauphine. Professeur et responsable de l'Initiative « Data Science & Big Data » à l’Ecole Polytechnique. En charge du traitement "Big Data" de la base de données de la Sécurité Sociale. Président du Comité Scientifique de nam.R.

  • Pierre-Alain De Mallerey

    Board member

    Ancien élève de l’ENA (promotion Senghor) et de l’Ecole Polytechnique, inspecteur des finances, Pierre-Alain a successivement été conseiller ministériel et directeur général de la MutRé. Spécialiste reconnu de la donnée et président du courtier en assurance Santiane, a rejoint le board de nam.R en 2017.

  • Éric Euvrad

    Board member

    Administrateur et Président du comité d’audit du groupe Atari, il a débuté sa carrière chez Arthur Andersen où il participe au développement de la practice « Restructuring ». Il rejoint ensuite Lucien Deveaux dans la reprise du Groupe Bidermann dont il a dirigé le retournement avant de lancer une start-up internet qu’il revend en 2002. C’est alors qu’il reprend en LBO Gigastore, enseigne de discount non alimentaire, qu’il dirige jusqu’à sa cession en 2008. Erick gère un cabinet de conseil spécialisé dans les phases de mutation et co-anime un groupe de formation

  • Raoul Saada

    Senior Strategic Deployment Finance Sector

    Polytechnicien, expert en intermédiation financière et de restructurations, Raoul a notamment participé à la création de l'equity broker Finacor et à la mise en place du marché des EuroMTN. Spécialiste de la finance verte, il a participé à de nombreuses opérations de structuration dans le secteur.

  • Sebastián Sachetti

    Senior Strategic Deployment Public & Heritage Sector

    Ancien élève de l’Ecole Nationale d’Administration, polyglotte hors pair (parlant le français, l’anglais, l’italien, l’espagnol et le portugais) Sebastian a occupé successivement des postes de premier plan dans le privé et dans le public, à la combinaison des mondes de la finance, de la culture et de l’informatique. Chargé de la conception et de la mise en place du Pass Culture avant de rejoindre notre équipe, Sebastian développe aujourd’hui les nouvelles plateformes de nam.R.

  • Nicolas Berthelot

    Lead Data Strategy

    Expert et passionné reconnu, impliqué depuis son plus jeune âge dans le traitement de bases de données socio-économiques, Nicolas rejoint nam.R dès le début pour y construire sa Data Library, projet unique en son genre de par sa taille et son innovation. Diplômé de Science po Paris, Nicolas est un des premiers en France à recevoir un diplôme en Data Stratégie (Sorbonne Université - UPMC). Chez nam.R, il dirige les équipes de “Data Sourcing” et de “Data Strategy”.

  • Louis Petros

    Lead Knowledge Strategy

    Passionné d’économie, de stratégie et d’affaires publiques, Louis a rejoint nam.R au lancement du projet, après avoir travaillé chez EDF Trading à Londres, à l’Assemblée Nationale et au Ministère de la Défense. Diplômé de Sciences Politiques à l’IEP de Strasbourg et titulaire d’un Master de la London School of Economics, Louis s’occupe des équipes du département “Solutions” de nam.R, où il identifie et construit les solutions dans lesquelles nam.R s’engage.

  • Gaël Grasset

    Lead Product

    Data Scientist et sociologue de formation, Gaël rejoint nam.R au départ du projet après avoir poursuivi en parallèle un diplôme d’ingénieur statisticien à l’ENSAE et Master en sociologie à Science Po Paris. Data Scientist, manager, chef de produit... Gaël s’est toujours retrouvé au centre de l’évolution de nam.R, fort de son expertise technique en Intelligence Artificielle qu’il a notamment développé chez Oscaro. Il est en charge des équipes “produits” de nam.R.

  • Servane Khaouli

    HR Business Partner

    Diplômée d’histoire et en gestion de projet, forte de nombreuses expériences dans la culture, la communication et le management de PME, Servane accompagne nam.R depuis sa création. Au coeur de ses responsabilités, qui combinent les ressources humaines et l’office management, Servane accompagne les différents départements dans leurs développements.

  • Alexandre Bacchus

    Data Scientist

    Titulaire d’un doctorat en génie électrique, expert reconnu en intelligence artificielle et notamment dans l’énergie, Alexandre a travaillé successivement sur les projets d’innovation et de data chez EDF et Enedis. Formé à la gestion de projet agile, il a rejoint les équipes de data science de nam.R pour participer à la construction du Digital Twin et organiser la gestion des équipes.

  • Duccio Piovani

    Data Scientist

    Après avoir obtenu son PhD en systèmes complexes au sein du prestigieux Complexity Center de l’Imperial College de Londres, Duccio a travaillé successivement comme data scientist et chercheur au Center for Advance Spatial Analysis de l’Imperial College. Duccio a rejoint nam.R pour concevoir les algorithmes propriétaires de nam.R.

  • Charles Hutin-Persillon

    Data Strategist

    Diplômé de l’IEP de Grenoble, Charles effectue un parcours de recherche en Sciences sociales, en Sciences politiques et en Relation internationales. Passionné des sujets environnementaux et par l’utilisation des statistiques, il se tourne petit à petit vers la Data pour devenir, en septembre 2017, Data Strategist chez nam.R.

  • Aymeric Flegeo

    Data Engineer

    Diplômé en Data Science à l’école Télécom Paris, Aymeric se forme au Data Engineering chez Renault, avant de rejoindre nam.R. Il intègre ainsi l’équipe technique en 2017 en tant que Data Engineer.

  • Guillaume Larcher

    Developer Product

    Diplomé du prestigieux Master MVA de l’ENS Paris-Saclay et de l’Ecole Centrale de Lille, Guillaume rejoint nam.R en avril 2017 pour son stage de fin d’études. Touche-à-tout, spécialisé en computer vision et en développement, il travaille - après plusieurs mois passés à mettre en place des algorithmes de reconnaissances d’image - avec l’équipe Produit pour y développer les produits nam.R.

  • Vincent De Chillaz

    Data Analyst - Quality

    Ingénieur de l’Ecole Centrale de Lyon et spécialiste de l’énergie et du climat, Vincent a évolué pendant plusieurs années au sein du très réputé cabinet Carbone 4, après avoir travaillé chez Schlumberger, Vinci et Citeo. Chargé de cours à l’ESTP et passionné par les projets data, Vincent a rejoint nam.R en tant que Product owner pour le Digital Twin.

  • Alexander Usoltsev

    Computer Vision Scientist

    Diplômé d’un Master en Biométrie, Alexander a d’abord travaillé en tant qu’Ingénieur en Recherche avant de rejoindre nam.R début 2018. Au sein de l’équipe Computer Vision, Alexander travaille sur les images satellites qu’il segmente pour identifier différents objets qui intéressent la start-up notamment sur le sujet du solaire.

  • Et aussi

    Découvrez les autres membres de l'équipe nam.R

Clément Perny

Data Scientist

Etudiant en dernière année de Master Data Science au sein de l’école d’ingénieurs de Grenoble ENSIMAG, Clément intègre nam.R dans le cadre d’un stage en NLP de fin d’étude. Il intervient auprès de l’équipe Data Science sur plusieurs projets.

Dina Khattab

Data Engineer

Etudiante en Master 2 Data science à Sorbonne universités, Dina est arrivée chez Nam.R dans le cadre d’un stage de fin d’études en tant que Data scientist. Dina a trouvé dans le projet nam.R et son utilisation des données libres dans le cadre de la transition écologique une réelle possibilité de travailler sur des projets utiles et concrets avec l’aide d’outils et de technologies de data science.

Hermes Martinez

Data Scientist

Diplômé en sciences du langage à l'Université Paris Diderot, Hermès est passionné des progrès récents en Natural Language Processing. Il met sa passion et son expertise au service du projet nam.R dans le cadre de sa manipulation de données textuelles non structurées.

François Andrieux

Data Scientist

Ingénieur diplômé de l’École supérieure d'informatique, électronique, automatique (ESIEA), François est un vrai passionné de machine learning, passion qu'il tient dans un blog reconnu des amateurs, en parallèle d'un rôle de tuteur OpenClassRoom. Il a rejoint nam.R en 2018 en tant que Data Scientist.

Paul-Louis Barbier

Full-stack Developer

Diplômé expert en informatique et systèmes d'information, Paul-Louis a été developer Backend et Lead Dev en startup avant d'arriver chez nam.R en mai 2018. Il est en charge du développement de la Data Library destinée à l'équipe Data Strategy.

Sébastien Ohleyer

Computer Vision Scientist

Diplômé de l'Ecole Centrale de Lille en Analyse de Données et titulaire d'un Master de recherche en Mathématiques délivré par l'Université Lille 1, Sébastien a ensuite intégré le Master MVA de l'Ecole Normale Supérieure Paris-Saclay. C'est dans le cadre de ce master qu'il rejoint nam.R en tant que Computer Vision Scientist.

Bastien Hell

Computer Vision Scientist

Après une école d’Ingénieur, Bastien intègre l’Institut national de l’information géographique et forestière (IGN) pour effectuer du traitement d’image et deep learning appliqués à l’information géographique. Début 2018, il rejoint nam.R en tant que Computer Vision Scientist.

Frédéric Maison

Office Manager

Frédéric est chargé de développement pour Geo PLC. Frédéric met à profit son expérience de l’office management au service de nam.R pour accompagner sa croissance et la pérennité de sa structure.

Florentin Fromont

HR Administrator

Diplômé d’un Master en Management des RH et performance durable, Florentin intègre nam.R en février 2018. Il exerce la fonction d’assistant RH. Son rôle est d’assurer la gestion administrative des RH, mettre en place un suivi des dossiers du personnel, intervenir en amont dans le processus de recrutement.

Jules Robial

Art Director

Diplômé des Métiers d’Art à l’école Estienne, école d’art de Paris, Jules dispose d’une formation de graphiste et de typographe. Chez nam.R depuis fin 2017, Jules s’occupe de toute l’identité visuelle de la start-up, sur tous ses supports graphiques ou de communication, afin de développer l’image de la start-up.

Adèle Bayart

Community Manager

Après quatre années d’études l’EFAP communication et stratégie, Adèle se dirige vers le secteur du luxe pour sa première expérience dans le community management. Elle rejoint fin 2017 le projet nam.R en tant que Community Manager. Elle va, à ce titre, gérer la communication sur les réseaux sociaux et développer la visibilité de la start-up sur Internet.

Valentine Lambolez

Data Engineer

Diplomée d'un Master de Statistique et Informatique Socio-Économique à l'Université Lumière Lyon II, où elle s'est spécialisée en Data Engineering, Valentine a rejoint Deepki, où elle avait en charge le développement et la mise en place optimale de modèles statistiques propres aux clients. Elle rejoint nam.R en 2018 où elle officie en tant que Data Engineer.

Frédéric Kingue-Makongue

Data Strategist

Documentaliste au diplômé du CNAM et de l'Université de Bordeaux, spécialisé dans l'archivage numérique, Frédéric renforce l'équipe Data Strategy grâce à son expertise en construction d'ontologies, structuration d'ensembles documentaires et analyse de corpus massifs de donnés.

Corentin Louison

Business Analyst

Actuellement en première année de Master of Science, International strategy & influence à SKEMA BS, Corentin intègre Nam. R en juillet 2018. Il effectue un stage de 6 mois dans le cadre de son année de césure au sein du pôle solution et intervient dans des missions de veille & d'écosystème.

Juliette Cocault

Business Analyst

Après avoir obtenu un Bachelor in Commerce au sein de l’université canadienne McGill, Juliette poursuit ses études à l’EDHEC. Dans le cadre de son master Juliette a rejoint nam.R pour un stage de 6 mois en Stratégie. Au sein de nam.R elle travaille sur la veille stratégique de l’entreprise, la mise en place d’un outil de veille automatique, et le développement d’indicateurs de performance pour la rénovation énergétique.

Hassen El Golli

System Administrator

Diplômé d’Epitech en 2012, Hassen a développé de nombreuses activités de developer et administrateur des systèmes ; tout d’abord en tant qu’ingénieur R&D chez Vianeos puis en tant que free lance dans différents projets ambitieux. C’est finalement chez nam.R qu’il trouve l’intérêt de s’impliquer à plein-temps dans un projet d’envergure motivé par le développement durable et la transition écologique.

Mélisande Teng

Data Scientist intern – Computer Vision

Mélisande est bientôt diplômée de Centrale Paris en Mathématiques Appliquées et du master MVA de l'ENS Paris-Saclay. Elle a également suivi le MSc in Management de l'ESSEC dans la chaire Entrepreneuriat Social. Après avoir participé au programme Data Science for Social Good Europe sur la prédiction du risque de chaque enfant de ne pas être vacciné contre la rougeole en Croatie, elle rejoint nam.R en tant que stagiaire Computer Vision pour travailler sur le sujet d’analyse des images “Street View”.

timeline

30/06/2017
Hackathon Data Energie
Hackathon nam.R vainqueur du Hackathon DataEnergie !
17/09/2017
CYGAL
Conférence Table-ronde sur la donnée géospatiale pour les enjeux de sécurité
02/11/2017
Food Use Tech Dijon
Salon nam.R présent au FoodUseTech de Dijon pour présenter ses solutions pour les circuits courts
06/11/2017
Dreamforce 2017
Salon
06/11/2017
Websummit 2017
Salon
12/11/2017
Big Data Value 2017
Salon
20/11/2017
Hackathon Culture & Tourisme
Hackathon nam.R, vainqueur du Hackathon Culture & Tourisme organisé par le Ministère de la Culture
12/12/2017
World Efficiency Solutions Paris 2017
Salon
13/03/2018
Big Data Paris 2018
Salon nam.R, finaliste des Trophées Big Data, et représentant des start-up AI for Good
21/03/2018
Observatoire de l'Open Data
Projet nam.R Co-constructeur de l’Observatoire de l’Open Data des Territoires, avec la Caisse des Dépôts & Open Data France
28/03/2018
Rapport Villani - IA for Humanity
Publication Contributeur au rapport Villani sur le thème de la donnée d’intérêt écologique
03/05/2018
Déménagement
Evenement Interne Déménagement dans nos nouveaux bureaux de la rue Foucault !
14/05/2018
AI for Good Geneve
Salon nam.R, seule start-up française présente au salon AI for Good, organisé par l’International Telecom Union (UN Agency)
23/05/2018
Vivatech 2018
Salon
07/06/2018
Conférence Green Tech Verte
Conférence Grégory Labrousse, fondateur de nam.R, intervient sur le thème de l’intelligence artificielle au service du développement durable au Meet’up de la GreenTechVerte, organisé par le Ministère de la Transition Ecologique et Solidaire
25/06/2018
Data Science Summer School 2018
Salon nam.R, sponsor de la Data Science Summer School
25/06/2018
Conférence du Comité21 au Museum d'histoire naturelle
Conférence Louis Petros, de nam.R, participe à la table ronde “Anthropocène, Intelligence artificielle et Objectifs de Développement Durable” avec le Comité21 au Museum d’histoire naturelle
26/06/2018
Toulouse Space Show 2018
Salon
02/07/2018
Rapport ODD
Publication
03/07/2018
GeoDataDays 2018
Salon Charles Hutin-Persillon & Nicolas Berthelot représentent nam.R au GeoDataDays
25/07/2018
Conférence Icade
Conférence A leur invitation, Vincent de Chillaz présente les solutions de nam.R aux responsables d’Icade
04/11/2018
Websummit 2018
Websummit Nous serons présents pour la deuxième consécutive au plus grand rassemblement Tech d’Europe !

partenaires

Pour le développement de nos outils d’intelligence artificielle et définir des règles métier applicables aux différents secteurs nous faisons appel à des structures privées et publiques telles que des laboratoires de recherche et des experts métier.

news

Advanced Aerial Imagery Analysis with Deep Neural Networks Explained in 5 Minutes.

There is no secret that when dealing with aerial images the best state-of-the-art results are achieved with deep learning models which come at the cost of their complexity. At the same time thanks to the Open Data, we can explore in a creative way even the most sophisticated techniques.

+

Developing a Complex Computer Vision System, a Case Study : Solar Panels Equipped Roofs.

At nam.R we are working hard to build the Digital Twin of France. To this end, we use a lot of sources of information such as aerial images.Extracting useful information from the unstructured data that are images? Sounds like a job for the computer vision team !

+

Merging Geo-Spatial Data on Twin Polygons.

One of the most important aspects of our work at nam.R is to find, clean, aggregate and organise large datasets of geo-localised data found in Open Data portals. Very often the same geographical area or object is described in many different datasets, each containing a different piece of information.

+

Rapport au gouvernement “Les données géographiques souveraines”, des propositions ambitieuses dans un cadre clarifié

Le récent rapport sur les données géographiques propose un nouvel angle d’analyse sur les données géographiques produites en France. Tout d’abord le rapport nous rappelle que les données géographiques sont extrêmement variées dans leurs sujets (description du territoire dans ses aspects physiques naturels, artificiels, visibles comme invisibles) mais ont pour particularité de toutes trouver leur utilité directement de leur composante géolocalisée.

+

Une Data Library au service de la valorisation des données externes

Open data issues des secteurs privé comme public, données des réseaux sociaux, plateformes de données privées, le web est une source infinie de données externes.

+

galerie

Vivatech 2018

Paris, France - 05/2018

  

Emmanuel Macron était à #vivatech2018. Grégory Labrousse a pu lui présenter nam.R qui incarne parfaitement les valeurs d’une startup d’intérêt général.

Vivatech 2018

Paris, France - 05/2018

  

Un stand aux couleurs de nam.R pour servir de scène aux pitch des 3 jours de #vivatech2018. #DIY

AI for Good 2018 – ITU

Geneva, Switzerland - 05/2018

  

Conférence #AIforgood2018

Data Science Summer School

Paris, France - 07/2018

  

Duccio et Sacha sont toute la semaine de la Data Science Summer School pour présenter les projets de nam.R. #DS3

GeoDataDays 2018

Le Havre, France - 07/2018

  

@namr_france était présent aux #GeoDataDays2018 organisés par @afigeo_asso_fr et @DecryptaGeo. Grand rendez-vous des producteurs et utilisateurs des données géographiques. #opendata #geodata

Web Summit 2017

Lisboa, Portugal

  

Président Hollande talks with Gregory Labrousse about the Open Data revolution. François Hollande was one of Open Data’s pioneers alongside President Barack Obama.

Web Summit 2017

Lisboa, Portugal

  

Meeting with Professor Mohan Munasinghe, Nobel Prize for Peace dedicated to his contribution to define the Sustainable Development Goals. nam.R is a key actor in the SDG working groups.

Data Science Summer School

Paris, France - 07/2018

  

Grégory rencontre ann LeCun à la Data Science Summer School. L’occasion de présenter le travail de nam.R pour mettre la #datascience au service de la transition écologique. #iaforgood

Hackathon DataEnergie 2017

Paris, France - 06/2017

  

nam.R est lauréat du Hackathon DataEnergie 2017 organisé par @rte_france @GRTgaz @enedis @GRDF @Etalab et @LIBERTE_LL. #hackathon #victory

Websummit 2017

Lisbon, Portugal - 11/2017

  

L’équipe nam.R au complet (ou presque !) s’était rassemblée à Lisbonne à l’occasion du #websummit2017.

Websummit 2017

Lisbon, Portugal - 11/2017

  

Le stand de nam.R au #websummit2017, un lieu pour découvrir le projet ambitieux de nam.R et son #digitaltwin.

Websummit 2017

Lisbon, Portugal - 11/2017

  

A la rencontre d’@enigma_data, société majeure de l’#opendata aux Etats-Unis. Une curiosité toute particulière pour l’immense dépôt de données qu’ils ont constitué : Enigma Public. #opendata

Websummit 2017

Lisbon, Portugal - 11/2017

  

Le stand en construction de nam.R, le projet prend vie au #websummit2017.

Dreamforce 2017

San Francisco, U.S.A - 11/2017

  

nam.R était à #dreamforce2017, la grand messe de Salesforce. Au programme, toutes les déclinaisons du préfixe my : #myEinstein, #mySalesforce, #myTrailhead !

World Efficiency Solutions 2017

Paris, France - 12/2017

  

@GrassetGael présente nam.R au #WorldEfficiencySolutions2017.

World Efficiency Solutions 2017

Paris, France - 12/2017

  

Le stand de nam.R au #WorldEfficiencySolutions2017, événement complémentaire au #OnePlanetSummit !

World Efficiency Solutions 2017

Paris, France - 12/2017

  

@LouisPetros est présent sur le stand pour présenter le projet de nam.R pour la #transitionécologique. #WorldEfficiencySolutions2017

World Efficiency Solutions 2017

Paris, France - 12/2017

  

@g_labrousse et @LouisPetros présentent à la ministre @brunepoirson le projet de nam.R pour la #transitionécologique. #WorldEfficiencySolutions2017

Big Data Paris 2018

Paris, France - 03/2018

  

@GrassetGael représente @namr_france pour les finales du Trophées Big Data à @BigDataParis

Big Data Paris 2018

Paris, France - 03/2018

  

@Nicolas_data présente la #DataLibrary et son usage à #BigDataParis2018. #opendata #satellite #aerialimagerey

Big Data Paris 2018

Paris, France - 03/2018

  

@g_labrousse présente le projet nam.R à une audience nombreuse rassemblée à #BigDataParis2018

Big Data Paris 2018

Paris, France - 03/2018

  

Lila Tretikov, CEO de Terrawatt Initiative & co-fondatrice de nam.R à Big Data Paris

Observatoire de l’Open Data

Paris, France - 04/2018

  

nam.R est fier d’avoir participé à la création de l’Observatoire de l’Open Data en partenariat avec @OpenDataFrance, @Etalab, @caissedesdepots, @sciencespo. #opendata

Vivatech 2018

Paris, France - 05/2018

  

La Team nam.R est présente en force à #vivatech2018. Les curieux de #DigitalTwin, d’#ODD et d’ #AIforgood sont venus nombreux pour discuter des projets de @namr_france.

AI for Good 2018 – ITU

Geneva, Switzerland - 05/2018

  

Gaël à la conférence de l’International Telecommunications Union pour l’#IAforGood

Meet-up Green Tech Verte

Paris, France - 05/2018

  

@g_labrousse présente nam.R au Meet-up de la GreenTechVerte

Conférence Comité21

Paris, France - 06/2018

  

Conférence #anthropocene & #ia du @Comite21, avec @Bettina_Laville & @LouisPetros de @namr_france

Toulouse Space Show 2018

Toulouse, France - 06/2018

  

@Charles_data et @GuillaumeLarch sont présents au #ToulouseSpaceShow2018. Ils peuvent y échanger sur notre usage de la donnée satellite aux experts du secteurs, producteurs comme utilisateurs. #satellite #newspace #opendata

Data Science Summer School

Paris, France - 07/2018

  

Présentation de Duccio et Sacha de l’utilisation de leur algorithme de shape matching à la Data Science Summer School. #DS3 #datascience #geomatics

contact

Contact Us

4 rue Foucault, 75116 Paris
(0033) (0)1 85 800 801
contact@namr.com

Advanced Aerial Imagery Analysis with Deep Neural Networks Explained in 5 Minutes.

There is no secret that when dealing with aerial images the best state-of-the-art results are achieved with deep learning models which come at the cost of their complexity. At the same time thanks to the Open Data, we can explore in a creative way even the most sophisticated techniques.

At nam.R we are working hard to build a Digital Twin of France, and to achieve that we use a lot of sources of information. One of the richest of them being aerial images. For us, humans, “reading” images is easy, but to teach computers how to deal with it is sometimes a real challenge (and fun!). In this post, we will show how we extract a rich description of buildings’ roofs from aerial images, particularly detecting their slopes. In Computer Vision jargon this task is called “object segmentation”, and to do that we chose to use a deep learning approach.

One of the current state-of-the-art segmentation models is the Mask R-CNN model published by researchers from Facebook. And we used this architecture implemented with a Keras framework.

To sum up, our deep learning model should be able to analyze the aerial images and detect roof slopes. This can help us understand the solar energy potential of the roof, and ultimately lead to a progress in nam.R’s vision: accelerating the ecological transition.

What Data Do We Need?

First of all, we need to define what kind of data is suitable for this task. We have a choice between satellite and aerial images. The main difference between them, in the context of our work, is the image resolution. Openly accessible satellite images have a resolution of several meters per pixel, while one can find aerial images with resolutions around 15-20 cm per pixel.

Because we would like to find some fine details on the images, roof slopes and ridges, we have gone with aerial images.

Training a deep learning model to detect roof slopes is a “supervised learning” task, so we need not only the images but also the labels of the slopes. So we created some labels ourselves. This is not a very exciting task, but it is a necessary steps to train a decent model.

This way we obtained two types of data to train the machine learning model: images of roofs and the labels for roof slopes.

A train data “image-label” pair looks like this:

To train a good model we need as much data as possible. Of course, we can label more roofs by hand, but it also possible to generate new samples just with the use of some simple transformations of original images and labels (“data augmentation”). This could be a rotation, a vertical or a horizontal flip and so on.

This way we can obtain a big enough dataset to train our deep learning model.

Deep Learning Model Which Fits Our Goal

Last few years, many high-performance deep neural networks were developed, and achieved impressive results on tasks of object detection. We chose Mask RCNN, a high-performance object segmentation network that was released in 2017. We adapted Matterport’s implementation to be compatible with our aerial images and labels data source.

During the training, the model takes images and corresponding labels and learns its internal parameters to detect roof slopes on any new image. Because our dataset is quite small, a couple of hours of training already produce decent results.

One of the indicators that our model learned is the value of its loss function. The loss function is the criterion which the model tries to minimize, and it is usually an average of error between the real label and the predicted one.

Below are the loss function values for our model, which are constantly decreasing. The figures mean that the model learns well how to detect roof slopes:

Detect Roof Slopes on New Image

During the prediction phase, the model reads only aerial image and predicts the contours of the roof slopes in the image. Because the prediction step does not require complex calculations, it is possible, for example, to copy trained model to the production server and use it to analyze images in a real time.

We can see, that predicted labels for roof slopes are quite accurate, but, as always, there is some space for improvement. From the image above we can see how the roof slope detection doesn’t work well on roofs uncommon material such as metal.

One can imagine several ways to improve this model. For example, we can try to add more training samples for this type of roof material or do more data transformations to generate new samples.

But for the goal of our exploration of deep learning in advanced aerial image analysis, it is already a great result.

This post was just one example of a deep learning model used by nam.R to make France’s Digital Twin richer and closer to the reality. We will share our other techniques in future posts.

Stay tuned!

Developing a Complex Computer Vision System, a Case Study : Solar Panels Equipped Roofs.

At nam.R we are working hard to build the Digital Twin of France. To this end, we use a lot of sources of information such as aerial images.Extracting useful information from the unstructured data that are images? Sounds like a job for the computer vision team !

To detect all solar panels on the roofs of french buildings, we used aerial imagery and the known outlines of the buildings, through a pipeline consisting of a solar panel outline detector and a filtering algorithm.

We took inspiration from the projects revolving around the state-of-the-art object segmentation deep learning algorithm known as Mask-RCNN. This algorithm is the newborn of a family of algorithms developed by Ross Girshick & al., in direct continuation of RCNN, Fast-RCNN and Faster-RCNN.

The chosen pipeline consists in two complementary parts :

– an object detector, more specifically an instance segmentation algorithm, meant to detect solar panels and extract their contours ;

– a filtering algorithm that takes all detections and filters out those that don’t match our business rules.

While the filtering algorithm can easily be developed using the expert rules we chose to consider (size of the detected solar panels, their position regarding to the considered roof), the deep learning model depends directly of the data we will feed it with.

The first part of the project was, accordingly, to generate a dataset of roofs equipped with solar panels, and the matching labels. There are multiple existing tools for image annotations (VGG VIA, MIT LabelMe,…) that can be used as is. We chose the VGG Image Annotator. After a few (hundreds of) clicks, we ended up with a dataset we’re quite proud of.

Only then, we were able to train the Mask-RCNN model to detect solar panels. The first version of our model wasn’t performing all that well and if was necessary to add more data to the training stage. We realized semi-supervised learning with automatic labelling.

This technique consists in using the model as a way to compute more labels that are then controlled by human operators and used as training data for a new, more robust version of the model. Controlling whether the proposed labels were right and correcting the wrong ones was way simpler than labelling by hand hundreds of images. Basically, we used our first model as a replacement for crowdsourcing ! After a few loops we fetched more data and matching labels and were able to train a model that had acceptable performances.

We transformed the raw output of the model into polygons in the same format and projection as our building polygons using geometric algorithms (Marching Squares, Douglas-Peucker) and geographic transformations. This enables us to directly filter out the potential false positives. We found out that roof windows, glass roofs and blue awning fabric were likely to be mistaken for solar panels due to their similar visual textures.

Fortunately, most false positives can be filtered out using the information of the building shape and position, but also expert rules concerning the minimal surfaces for solar panels.

The first conclusion we draw is that the combination of machine learning and expert rules can become a reliable framework, harnessing the power of machine learning algorithms and the robustness of business rules.

The second one was the use of our first imperfect model to help us label more data. Real data but synthetic labels, a great example of human-machine cooperation, isn’t it?

Finally, there are many different ways for computing the performances of this kind of pipelines. The deep learning model itself can be evaluated using metrics such as its mean average precision but we were mainly interested in the performances of the whole flow. Thus, we chose metrics that are less image-centric and oriented more towards information retrieval : precision, recall and overall accuracy. We added a geometric metric that indicates how well our predicted panels matched with the actual ones, the Intersection over Union (IoU).

We achieved the performances of 96% overall algorithm accuracy and 84% IoU on our test set, values we’re quite proud of.

The predictions of solar panels were integrated in nam.R’s Digital Twin and the information is already put to good use !

Merging Geo-Spatial Data on Twin Polygons.

One of the most important aspects of our work at nam.R is to find, clean, aggregate and organise large datasets of geo-localised data found in Open Data portals. Very often the same geographical area or object is described in many different datasets, each containing a different piece of information. To build a rich description of the object the real challenge is to join these pieces together. But in absence of a clear and coherent name or index, this process can become quite difficult and noisy.

For example when trying to aggregate information on a building we may find its price per square meter in a file, while another file may contain information on its heating system or material. Of course though buildings usually don’t have names, and are often indexed differently according to the source, or institution, behind the creation of the dataset. This means that to correctly merge the various sources one has to be creative.

Luckily more often than not the geographical objects come with the coordinates that describe their geometry, and this indeed can be used to merge the data on twin polygons. By twin polygons we mean polygons describing the same object in the different datasets.

That said one can be surprised to see how many small differences are found in the coordinates of one same object coming from different sources: the angles, the number of vertexes, the length of the edges and of course the geolocalization are often slightly different. Moreover a single building in a dataset can be easily represented as several buildings in another one. In the figure above we can see two tricky examples. All this implies that a unique definition of twin polygonsdoes not exist and therefore we leave this task to an algorithm.

Machine Learning Approach: A Shape Matching Algorithm.

The Machine Learning approach we chose consists of training a Random Forest algorithm to give a similarity score of two polygons. To do this we started by describing polygons through a number of geometrical features: compactness, PCA orientation, eccentricity, convexity and more. A polygon is therefore interpreted as a vector of numbers like in the figure above. This allowed us to quantify the difference of any given couple as the difference of these vectors .

To train our Random Forest algorithm we labeled by hand more than 20 000 couples of polygons, coming from spatial intersections of real datasets, as same or different.

The algorithm then learnt to give a similarity score based on the geometrical features of two polygons. This can be interpreted as the probability of the two polygons being the same one. By setting a threshold at t = 0.7 on the similarity score we obtained the following performances on our training set.

We considered these values good enough, and therefore started using this algorithm to put some order in the wildness of the geospatial data universe. May the merging begin !

Rapport au gouvernement “Les données géographiques souveraines”, des propositions ambitieuses dans un cadre clarifié

Rapport au Gouvernement “Les données géographiques souveraines”, Valéria FAURE-MUNTIAN, députée de la Loire, Juillet 2018 : Disponible ici

La donnée géographique souveraine comme ‘nouveau’ cadre de réflexion pour une data stratégie nationale

Le récent rapport sur les données géographiques propose un nouvel angle d’analyse sur les données géographiques produites en France. Tout d’abord le rapport nous rappelle que les données géographiques sont extrêmement variées dans leurs sujets (description du territoire dans ses aspects physiques naturels, artificiels, visibles comme invisibles) mais ont pour particularité de toutes trouver leur utilité directement de leur composante géolocalisée. Le rapport propose une distinction intéressante entre les données “socle” (fond de carte agnostique des usages qui en seront faits) et les données “métier” (données géographiques produites dans le cadre d’un besoin d’une mission).

Le rapport a également pour grand intérêt de proposer une définition très claire de ce qui donne à une donnée géographique un caractère souverain. Cette souveraineté sera tirée de l’ indépendance dans laquelle elle est produite (le rapport n’exclut pas que la donnée puisse être produite par un tiers privé mais insiste sur le fait que la puissance publique doit pouvoir maîtriser techniquement la production, de l’acquisition jusqu’au stockage de l’information) et de l’ autorité qu’aura la donnée géographique diffusée par l’Etat. Par autorité, le rapport reprend assez largement le travail de l’administrateur général des données dans le rapport sur les données de référence ; l’autorité d’une donnée ne se décrète pas, elle doit faire autorité, c’est-à-dire s’imposer d’elle-même par sa qualité et sa réutilisabilité (à ce titre on pourrait être surpris de ne pas retrouver la mention aux principes FAIR dans ce rapport). C’est sur cette dimension d’autorité qu’une partie conséquente du rapport va s’appuyer pour défendre plusieurs propositions.

Les propositions fortes du rapport

Créer un point d’accès unique à la donnée géographique sous la responsabilité de l’IGN

La création d’un guichet unique de la donnée est un pari qui a été entrepris à plusieurs reprises à travers des projets comme le Géoportail, le Géocatalogue ou encore geo.data.gouv.fr. Il est évident que chacun de ces points d’accès est très spécifique et beaucoup d’utilisateurs (nam.R inclu) témoignent des nombreuses barrières à l’entrée que chacune de ces plateformes représentent. La nouvelle mouture de geo.data.gouv.fr de cet été augmentera probablement le degré d’utilisabilité de cette plateforme qui s’impose progressivement comme référence. Le choix de désigner l’IGN comme porteur d’un nouveau portail peut être intéressant étant donné les ressources et compétences disponibles au sein de l’Institut, néanmoins on peut émettre certaines réserves sur ses capacités à imposer un nouvel espace qui fera autorité.

L’introduction de la DINSIC au sein du CNIG (en tant que secrétaire) et la faire siéger ès-qualité au conseil d’administration de l’IGN

La DINSIC rattachée au Premier Ministre pourrait prendre une place de plus en plus importante au sein de la gouvernance de l’IGN et du CNIG. Cela est justifié par le fait que la mission des producteurs de données géographiques se veut de plus en plus interministériel et non l’apanage des seuls ministères chargés du développement durable et de l’agriculture.

Transférer à l’IGN la mission topographique de la DGFiP

S’il ne s’agirait dans un premier que d’une évaluation des impacts techniques et organisationnels, juridiques et financiers d’un transfert des missions topographiques de la DGFiP à l’IGN, cette prise de décision pourrait être salutaire dans la perspective de la réalisation de la RPCU.

Mandater l’IGN pour jouer un rôle plus actif dans la réalisation du PCRS

Le Plan de Corps de Rue Simplifié est un projet fantastique initié en 2011. L’Afigéo a même déclaré lors des Géo Data Days (3-4 juillet 2018, Le Havre) qu’il faisait des émules à l’étranger par la grande qualité des spécifications dont il a fait l’objet. Dynamiser sa réalisation grâce à un mandat plus clair de l’IGN en tant que pilote permettrait de concrétiser ce superbe projet. L’IGN a déjà déclaré à l’occasion des Géo Data Days qu’il se positionnerait comme un acteur actif sur le PCRS 1.

Poser un principe de gratuité de la mise à disposition des données géographiques souveraines, imposer la licence ouverte comme unique référence

C’est peut-être sur cette dernière proposition que la rapport était le plus attendu. Celui-ci est ambitieux : il propose non seulement de garantir l’accès gratuit aux données géographiques souveraines mais de le faire dans des conditions permettant sa plus libre réutilisation (qui est permise par la licence ouverte, plus largement que la licence ODbL ou d’autres licences Share Alike). Ces principes d’accès libre et gratuit aux données géographiques souveraines pourra certainement permettre le développement d’un plus grand nombre de projets mobilisant des données géographiques de qualité. Cela aura également pour vertu de renforcer l’autorité des données dans la mesure où elles deviendraient plus aisément les données de référence d’un domaine. Néanmoins, il ne faut pas écarter le risque de la diminution en qualité des données géographiques souveraines si des manques venaient à subvenir, la réutilisation qui est au principe de l’autorité de la donnée souveraine ne pourra être effective que si la qualité des données et des métadonnées est maintenue ou améliorée.

Une Data Library au service de la valorisation des données externes

Open data issues des secteurs privé comme public, données des réseaux sociaux, plateformes de données privées, le web est une source infinie de données externes. Tous types de formats sont diffusés : tables de données, données géolocalisées, API, images ou encore textes. Comment tirer profit de toute cette valeur dans le cadre de processus Big Data ?

Avant de vous présenter la solution qui a été développée par nam.R, il est important de mieux en comprendre les activités. nam.R est un producteur de données qui a pour particularité de ne mobiliser dans ses processus Data Science que des données externes. Ce principe fondateur a pour avantage de ne pas faire dépendre nam.R des données de partenaires qui pourraient fixer des exclusivités quant à l’usage de leurs données. nam.R a développé une expertise dans les données concernant tous les secteurs de la transition écologique : développement des énergies renouvelables, opérations d’efficacité énergétique, smart grids, circuits courts… Ses équipes de Data Science exploitent des données géolocalisées mais aussi des images ou des données textuelles afin de construire à la maille la plus fine une information actionnable par une grande variété d’acteurs.

Dans la mesure où la donnée externe constitue l’unique source de données exploitée par nam.R, il est nécessaire d’en exploiter toute la richesse. C’est pourquoi la start up a entrepris de construire une base de connaissance structurée la plus vaste possible.

La première exigence de cette base était qu’elle soit exhaustive de toutes les sources de données structurées en France. Pour cela un travail important de recensement des sources open data et de données fermées a été crucial et suscite une veille permanente. A partir de cette liste, nam.R a pu développer des scrapers qui parcourent quotidiennement les pages de ces sites web. Ces scrapers téléchargent tous les datasets et en récupèrent de manière structurée toutes les métadonnées disponibles.

La seconde exigence était d’harmoniser l’information disponible sur chacune des bases de données afin de pouvoir les requêter de manière équitable. Pour cela, le développement de miners a été nécessaire. Les miners complètent les scrapers car ils parcourent les fichiers téléchargés en eux-mêmes. Ils tirent de nombreuses informations sur chacun des fichiers comme le nombre d’enregistrements, le nombre de variables, l’en-tête et le type de chacune des colonnes et (prochainement) même une thématique ou plusieurs à partir d’un traitement à base de Natural Language Processing.

Enfin, la troisième exigence est de parvenir à mettre en place un pipeline fluide d’intégration de la donnée externe au sein de processus de traitement en Machine Learning. La robustesse du pipeline repose sur sa capacité à s’adapter à la mise à jour de la donnée source. Alerté par les scrapers, le Data Scientist peut mettre à jour les bases de données qu’il traite en amont du flow. A court termes la Data Library sera en capacité de scorer les évolutions issues de la mise à jour du dataset. Si le schéma reste cohérent et que le nombre d’enregistrements n’est pas décuplé, le dataset peut automatiquement être mis à jour.

Les opportunités qu’ouvrent l’open data ou la multiplication des marketplaces de data doivent être saisis avec de nouveaux outils. La Data Library de nam.R cherche à être à la hauteur de ces enjeux. Toujours en phase de développement, cette Data Library a déjà de nombreux usages en interne. De premières exploitations ouvertes au public se feront en février dans le cadre de l’observatoire de l’open data que nam.R développe en partenariat avec l’association OpenData France, Etalab et la Cour des Comptes.