XXII aux 3 salons du moment: Viva Technology, AI Paris et Eurosatory!

XXII aux 3 salons du moment: Viva Technology, AI Paris et Eurosatory!

Viva Technology ouvrira le bal, du 24 au 26 mai prochain, stand J10-017 sur le Lab de Vinci Energies.

Suivront les salons AI Paris sur le stand C5 les 11-12 Juin 2018 et Eurosatory sur leur espace Lab du 11 au 15 juin.

Fournisseur d’intelligence, nous développons des compétences en IA. Et pour la première fois, nous présenterons sur les 3 salons, notre solution intelligente d’identification de bagages abandonnés, avec alerte en temps réel.

01B.jpg

 

Notre mission?

Augmenter l’humain, accélérer les capacités de production, de décision et optimiser la sécurité.

02.jpg

Vous découvrirez nos démonstrations en direct sur place avec notre équipe, et pourrez échanger avec nos docteurs en IA, ainsi que notre fondateur et CEO William Eldin.

Cliquez sur ce lien pour organiser un rendez-vous sur l’un des salons !

 

Non, l’IA ne va pas causer la fin du monde

Non, l’IA ne va pas causer la fin du monde

Vous avez probablement déjà lu des quantités d’articles détaillant les effets attendus - et moins attendus - de l’Intelligence Artificielle, comme la destruction des emplois, la Troisième Guerre Mondiale et autres joyeusetés.

Soyons clairs, l’IA a des inconvénients et oui, nous devons bien réfléchir aux questions liées à son intégration harmonieuse dans nos vies. Mais il s’agit du destin de chaque nouvelle évolution technologique, et l’IA devrait être vue comme une occasion d’inventer de nouveaux espaces dans lesquels plus de personnes pourraient exprimer leurs points de vue et participer à la création du monde de demain plutôt que comme une malédiction pure et simple.

De fait, au lieu d’imaginer comment l’IA pourrait “détruire” notre société, parlons plutôt de ce qu’elle peut nous apporter pour améliorer nos vies.

Oncologie

La santé est un domaine dans lequel l’IA aide déjà à sauver des vies.

Ca n’est pas un secret, les professionnels de la santé voient le nombre de patients augmenter d’année en année et luttent pour continuer de délivrer le même niveau de qualité de service. Certains spécialistes comme les radiologistes peuvent avoir jusqu’à 50 dossiers de patients dans la journée, ce qui ne laisse que quelques secondes seulement pour étudier chaque radiographie. C’est très largement insuffisant pour être certain de détecter les signes d’une maladie grave à temps, et des outils basés sur des IA spécialisées pourraient grandement améliorer les capacités de diagnostics des docteurs.

C’est pourquoi la startup Zebra Medical Vision, spécialisée dans l’analyse d’imagerie médicale, propose d’assister les médecins dans les tâches chronophages en analysant en amont les radiographies pour détecter de potentiels signes avant-coureurs.   

Watson, outil développé par IBM, aide également les spécialistes à détecter plus rapidement les symptômes de maladies comme le cancer.
 

rawpixel-com-472352-unsplash.jpg

Traduction

L’IA pourrait faciliter le dialogue entre les nations.

Nous sommes encore très loin de pouvoir compter sur le Babel Fish du fameux Guide du Voyageur Intergalactique de Douglas Adams, poisson fabuleux qui se glisse dans les oreilles et traduit instantanément tous les dialectes de l’univers. Mais des sociétés comme Google ou Microsoft travaillent d’arrache-pied pour faire disparaître la barrière de la langue : vous pouvez maintenant marcher dans la rue dans un pays étranger et viser les affichages avec votre smartphone pour décrypter instantanément ce qui est écrit dessus. Vous pouvez également appeler un partenaire chinois sans avoir de notions de mandarin, ou un anglais bancal, et tenir une conférence téléphonique efficace où toutes les phrases sont traduites en temps réel dans la langue de chacun.

dmitri-popov-441562-unsplash.jpg

 

Astronomie

L’IA peut aussi être utilisée pour comprendre les mystères de notre univers.

Les scientifiques l’utilisent pour détecter des phénomènes particuliers, comme des indices pour déceler la matière noire pour comprendre son influence. Les astronomes ont également des IA pour étudier l’impact des trous noirs sur la forme des galaxies, ou encore pour automatiser la détection de signaux spécifiques comme ceux émis par les différents types d’étoiles.

Ces outils IA permettent aux chercheurs de gagner énormément de temps et de découvrir de nouvelles pistes en se basant sur des données collectées des années auparavant. Et d’après les astronomes, ça n’est que le commencement de ce que l’IA peut faire dans ce domaine…

conner-baker-379758-unsplash.jpg

 

Energie

L’IA peut également contribuer à optimiser les installations consommant beaucoup d’énergie, comme Google dans leurs data centers, pour calculer l’évolution des prix de l’énergie, et donner des recommandations pour de meilleurs investissement énergétiques.

Les outils IA pourraient non seulement représenter un bonus économique mais aussi un avantage environnemental, notamment concernant la planification de la production et de la distribution de l’énergie. Plusieurs initiatives les utilisent pour permettre une meilleure répartition de l’énergie via les « smart grids », capables d’anticiper les pics de consommation d’énergie et ainsi d’optimiser la distribution.

En tant qu’outil de prédiction météorologique, l’IA pourrait servir à prévoir les volumes de productions des énergies solaire et éolienne, procurant une meilleure visibilité sur la pénétration des énergies renouvelables dans les mix énergétiques nationaux, et ainsi accélerer la transition énergétique.

american-public-power-association-430862-unsplash.jpg

Les exemples donnés ici ne représentent qu’une infime partie de ce que l’IA peut apporter aux hommes, et d’autres encore sont à venir. Il est facile de l’oublier tant les médias parlent principalement d’”IA forte” ou de “singularité”, mais l’IA est avant tout un outil. Et comme tous les outils, ses impacts ne sont que les conséquences de son utilisation première.

Il nous revient donc de prendre conscience et de tirer parti du potentiel de l’IA pour continuer à travailler ensemble pour un avenir meilleur!

 

Quand la VR et l’AR sont au coeur de l’Experiential Commerce

Quand la VR et l’AR sont au coeur de l’Experiential Commerce

Le retail évolue et se réinvente constamment depuis le début de son histoire. Les consommateurs de tous âges souhaitent toujours consommer en magasin mais attendent aujourd’hui que leur parcours d’achat soit une expérience à part entière et non une simple transaction.

Face aux géants du e-commerce, les marques et distributeurs doivent se réinventer et revaloriser le point de vente en proposant une expérience d’achat unique s’appuyant sur les nouvelles technologies : évasion, tests et expériences sont au coeur des nouvelles stratégies du retail (ce que ne propose pas le e-commerce).

Experiential Commerce

La Réalité Virtuelle/Augmentée au service du Retail

La barrière est en train de se briser entre le physique et le virtuel et de nombreuses marques ont su saisir les opportunités. En effet, elles ont développé des applications de réalité virtuelle et augmentée pour permettre aux clients de consommer autrement. Ces applications font notamment vivre l’expérience et le parcours d’achat virtuellement.

En avant les nouvelles technologies

  • Une présence omnicanale au coeur de la stratégie du retail

L’omnicanal est assimilé par les marques. Après le développement obligatoire des plateformes e-commerce de chaque marque (pour contrer Amazon, Asos, etc) vient le temps de la rupture entre le online et le offline, le but étant de créer des expériences d’achat en utilisant des outils digitaux sur les lieux de vente. La VR et AR sont des solutions technologiques très appréciées auprès du grand public, un phénomène de curiosité et d’engouement qui ne risque pas de disparaître.

  • Créer la boutique intelligente de demain

Adopter la VR et AR pour consommer autrement : le shopping VR/AR est en train de révolutionner le retail créant un nouveau format entre le e-commerce et le physique. L’utilisation des technologies VR/AR est une véritable révolution qui créée une expérience immersive et déclenche l’acte d’achat grâce aux émotions (notamment par le biais des 5 sens).

Ces marques qui ont franchi le pas

Le shopping en VR/AR devient l’arme ultime du retail afin d’attirer les consommateurs en boutique. Ainsi, Ikea a créé une application permettant de composer sur place sa cuisine idéale et de pouvoir la visualiser à l’instant T.

   Screenshot de l’application Ikea

Screenshot de l’application Ikea

Le premium et le luxe développent également le shopping VR/AR pour améliorer l’expérience client en boutique ou encore ajouter un support digital aux forces de vente. Dior est par exemple la marque de luxe la plus installée sur le marché de la VR puisqu’elle a développé son propre casque VR, permettant aux clientes de participer virtuellement aux coulisses des défilés de mode.

  Crédit photo Dior

Crédit photo Dior

L’enseigne de grands magasins Galeries Lafayette a, quant à elle, développée une application en réalité augmentée avec XXII pour permettre à ses clients de visualiser l’ensemble des modèles d’un produit, le but étant d’optimiser son merchandising en optant pour une implantation plus épurée tout en ayant la possibilité pour les consommateurs de visualiser l’assortiment complet.

Autre exemple,  la collaboration entre XXII et Caudalie a permis de créer une expérience unique pour le consommateur : voyager virtuellement dans l’enceinte du Spa Caudalie et du Château Smith-Haut Laffite pour faire découvrir les origines de la marque et des produits aux consommateurs en magasin.

Le shopping en VR/AR apporte alors une valeur ajoutée aux boutiques physiques et redonne une raison aux consommateurs de se rendre en magasin plutôt que de réaliser des achats sur un site marchand. C’est également un outil très précieux pour les points de vente afin d’optimiser le merchandising et de le rendre plus attractif.  Mais au delà de l’expérientiel, les technologies VR/AR sont aussi de véritables outils d’aide à la vente. En effet, les technologies VR/AR sont idéales pour des formations en amont, destinées aux équipes de vente à moindre coût et de manière plus réalistes avec des mises en situation dans le virtuel.

Puissant outil de marketing au service du storytelling

Outre l’attrait et l’effet Wow de la VR et AR, ces solutions technologiques ont un véritable pouvoir marketing : le storytelling.

  • L’interactivité et l’UX au centre des préoccupations consommateurs

Le grand challenge des marques réside dans la déconscientisation de l’achat (le rendre instinctif) en réinventant l’acte d’achat par le biais d’outils technologiques et de faire vivre une expérience unique aux consommateurs en les immersant dans l’univers de la marque.

  • Créer du désir chez le consommateur

Aujourd’hui la VR/AR suscite l’envie d’acheter et permet de mêler rêves et réalité, en particulier dans l’industrie du luxe. Ces deux technologies rendent l’inaccessible possible en seulement quelques secondes et permettent une identification quasi instantanée. L’approche "Customer Centric" remet l’humain au centre des préoccupations des marques en accentuant l’hyperpersonnalisation grâce aux expériences en réalité augmentée notamment.
 

Le retail de demain

Dans 10 ans, le commerce de détail ne ressemblera plus au retail actuel. Les profondes transformations actuelles vont aboutir à un format phygital (physique + virtuel). Un élément majeur est également à prendre en compte, l’arrivée de l’intelligence artificielle dans le retail : the true seamless. En effet, les algorithmes intelligents sont de précieux outils pour le secteur notamment en matière de sécurité sur les lieux de ventes. Quelques exemples d’utilisation :

  • Détecter et analyser les gestes et comportements des visiteurs afin d’alerter les services de sécurité en temps réel d’un danger imminent (agressions, vols, malaises).

  • Optimiser et gérer les stocks des points de vente.

  • Calculer et augmenter le taux de satisfaction clients dans les points de vente.

  • Gérer les flux en magasin

Retrouver les solutions d’Intelligence Artificielle développées par XXII sur http://xxiigroup.com/ai-platform.

La mission Villani vue par XXII

La mission Villani vue par XXII

Il y a quelques jours paraissait le rapport de la mission Villani, qui avait pour but de poser les bases d’une stratégie nationale ambitieuse pour la France en matière d’IA. En tant que partie intégrante de l’écosystème startups en général et de l’univers de l’Intelligence Artificielle en particulier, XXII attendait les conclusions de ce rapport avec impatience. Voici donc nos réactions, pour le moins… partagées.

Pour un récapitulatif du rapport Villani c’est ici.

La donnée au centre des préoccupations de la mission Villani

La donnée est un des thèmes majeurs du rapport Villani : l’importance d’une meilleure approche des données au niveau national et européen est mise en avant. En effet, le constat est sans appel. Selon le rapport, près de 80% des visites sur les 25 sites les plus populaires sur un mois sont captées par les plateformes américaines. De même, il est assez difficile pour une entreprise de petite taille ou une startup de concurrencer des sociétés plus grandes dans la collecte et l’utilisation de données. Or, les données sont pour le moment un point crucial du développement de l’IA. Bon nombre de techniques comme le Machine Learning reposent sur des apprentissages sur des grands sets de données annotées, et même si des méthodes pour se passer de ces données sont en développement, elles ne sont pas encore suffisamment robustes pour concurrencer les autres. Le rapport évoque alors une politique de données nécessaire au développement des startups dans l’intelligence artificielle pour permettre et intensifier leurs recherches. Ces dernières n’ont en effet pas les moyens de récolter de gros “pools de data”, cette mise en “commun” devrait donc permettre de créer un équilibre et éviter d’handicaper les startups. Nous attendons de voir ce qui va être concrètement mis en place.

La Recherche, deuxième axe phare du rapport

La recherche est un peu la seconde grande star du rapport. Malgré une excellence reconnaissance - la France est après tout présente parmi les 4 premiers pays au monde pour la production mondiale d’articles sur l’intelligence artificielle et bon nombre de chercheurs français figurent parmi les têtes d’affiches de l’IA - la recherche française a du mal à garder ces profils talentueux ainsi qu’à transformer ses avancées scientifiques en applications industrielles et économiques.

Le rapport est très lucide à ce sujet, et propose plusieurs mesures au niveau académique, notamment sur l’amélioration des conditions de travail des chercheurs.

Mais ce n’est pas tout. Le rapport prévoit également de permettre aux chercheurs de passer 50% de leur temps en entreprise et envisage de possibles partenariats entre privé et académique pour faciliter la formation d’ingénieurs et de chercheurs performants.

Il est actuellement très compliqué pour les petites structures d’arriver à attirer des profils académiques intéressants ou d’héberger des thèses CIFRE. Si ce rapport pouvait accélérer l’employabilité des chercheurs par les startups et les TPE, cela aiderait grandement les structures comme XXII, qui ont elles aussi des besoins cruciaux en recherche.

Petit bémol cependant : il semblerait que ce rapprochement privé / académique privilégiera les grandes entreprises d’abord… Attention donc à ne pas oublier les petites structures !

A qui vont profiter les investissements ?

Un précédent rapport commandé par M. François Hollande avait débouché sur un investissement par l’État de 1,5 milliard d’euros sur dix ans. La publication du rapport de la mission Villani a abouti à un chiffre similaire, mais réparti cette fois-ci sur la durée du mandat de M. Macron, soit une durée de 3 ans.

Cela implique des investissement privés, notamment de la part de sociétés telles que Samsung ou Google, qui ont récemment pris la décision d’ouvrir des centres de recherche dédiés à l’IA en France. Cette enveloppe de 1,5 milliard se répartie ainsi de la manière suivante : 100 millions d'euros seront consacrés à l'amorçage de start-ups en intelligence artificielle ; 70 millions seront confiés à la Banque Publique d'Investissement pour le développement d'entreprises dans les «deep technologies» et 400 millions seront consacrés à des appels à projet divers. Enfin, il faut ajouter 800 millions d’euros que l’État va investir d’ici 2024 dans la nanoélectronique essentielle aux développements de l’IA. A l’échelle de la France c’est un bon début, mais on reste très loin des investissements à l’étranger, en particulier les Etats-Unis et la Chine à destination de leurs startups.

L’attribution de ces fonds reste encore énigmatique. Certes les montants ont été révélés, mais quand et comment vont ils être distribués? Qui pourra concrètement en bénéficier ?

Vers un cadre expérimental assoupli ?

Un des points les plus nébuleux du rapport reste malheureusement également l’un des plus important pour les startups : le cadre de l’expérimentation.

Le rapport préconise en effet un “allègement temporaire de certaines conditions réglementaires” pour “laisser le champ libre à l’innovation”, ainsi qu’un “accompagnement des acteurs dans la prise en compte de leurs obligations” et “des moyens d’expérimentation en « situation réelle »”.

S’il est facile d’imaginer comment pourrait s’appliquer un éventuel allègement des conditions pour des sociétés comme Navya qui travaillent sur les véhicules autonomes, il est assez difficile de comprendre quelles autres applications pourront bénéficier de ces avantages, et pour combien de temps.

Il est pourtant crucial de pouvoir laisser les entreprises tester leurs avancées sur des cas d’usage réalistes afin d’améliorer à la fois les performances et la sécurité de ces applications. C’est particulièrement le cas dans des applications comme celles développées par XXII, et nous espérons vraiment voir dans les mois à venir de vraies mesures à ce sujet.

Énième rapport superflu sur l’IA ou vraie avancée stratégique?

Les stratégies IA sont finalement assez similaires les unes aux autres et d’un pays à l’autre : plus de fonds pour la recherche, plus d’investissement dans la formation des nouveaux talents, meilleure évaluation des impacts sur l’emploi, création de cadre juridique et législatif… Ce rapport ne fait pas d’exception. Malheureusement, ce qui est intéressant ne sont pas tant les grandes lignes que la manière d’atteindre ces objectifs.

Ce rapport fournit une très bonne base de vulgarisation, et a le mérite de continuer de faire avancer le discours national sur l’IA vers une approche unifiée, moins fantasmée et plus réaliste. Le gouvernement envoie un message fort : L’IA n’est pas une simple lubie technologique mais un véritable atout stratégique et un investissement d’avenir.

Néanmoins, s’il se veut englober tous les acteurs du marché de l’IA, ce rapport, est (trop) centré sur la recherche et sur le marché franco-français : 113 des 135 mesures proposées par Villani sont centrées sur la France, et comme évoqué plus haut, les acteurs privés de petites tailles sont à peine évoqués. Une émergence d’un leadership européen de l’IA est certes une solution plus plausible qu’une ascension de la France seule, il reste que le rapport ne donne pas de dimension internationale à sa stratégie IA.

Finalement, ce rapport pêche par son manque de conclusions “concrètes” et d’un plan d’action pour les entreprises et les startups, qui se voient promettre des nouveaux partenariats, cadres juridiques et outils sans pour autant préciser de délais de mise en application, ou de critères d’éligibilité.

Même si le gouvernement reconnaît publiquement avec ce rapport que la France accuse un sérieux retard au niveaux de l’innovation et de l’IA et semble vouloir le rattraper, il faudra voir à long terme l’application des différentes pistes pour que la mission Villani ne reste pas lettre morte, notamment sur l’accès aux données et les relations académique / privé.

Après tout, il s’agit du troisième rapport parlementaire sur l’IA, et nous autres startups spécialisée en IA n’avons pas exactement vu d’amélioration dans nos activités. Il reste encore un long chemin à parcourir avant de pouvoir s’estimer satisfaits, et nous attendons donc avec impatience les retombées et les actions concrètes découlant de ce rapport.

 

ZEDMini by Stereolabs - Review

ZEDMini by Stereolabs - Review

ZEDMini par Stereolabs mélange réalité virtuelle avec réalité augmentée, créant des expériences inédites de réalité mixte.

L’accessoire est composé de deux caméras 65mm qui imitent les yeux et s’ajoutent à n’importe quel casque de réalité virtuelle : Oculus Rift, HTC Vive, Microsoft MR… Il capture le monde réel et le cartographie, ce qui permet de développer des applications qui traitent mondes virtuel et réel à la fois.

L’utilisateur voit alors le monde réel dans le casque VR, le logiciel permettant d’utiliser simultanément ces flux vidéos pour analyser l’environnement et suivre la position, le transformant alors en périphérique de réalité augmentée.

Les Points Forts de la ZEDMini:

  • Nouveaux cas d’usages pour la réalité mixte !

  • Fonctionne avec les casques de réalité virtuelle compatible avec SteamVR (HTCVive, Oculus Rift et toute la gamme Microsoft MR).

  • L’affichage est stéréo, c’est à dire que sur chaque écran du casque, l’image est différente et s’adapte à la vue, donnant un effet de profondeur.

  • La méthode de calcul de la 3D et de l’environnement est précise et en temps réel (Dynamic Space Mapping). Il est possible d’interagir avec des objets virtuels à taille humaine qui projettent des lumières et ombres dynamiques autour de l’utilisateur principal. Les éléments virtuels semblent se mélanger dans le monde réel, de façon beaucoup plus réaliste que n'importe quel autre système de réalité augmentée, puisque la lumière n’affecte pas le rendu des éléments virtuels.

  • C’est la première fois que l’on voit une si bonne gestion de l’occlusion / profondeur de l’environnement, c’est à dire que les objets virtuels peuvent se retrouver cachés derrière un objet physique réel. Les surfaces simples (murs, sols, tables…) sont reconnues par les caméras et rendent plus réalistes le positionnement d’objets virtuels par rapport aux objets réels présents.

  • En utilisant la ZEDMini sur l’un des casques Microsoft Mixed Reality (Acer, Lenovo, HP…) et un backpack (contenant un ordinateur portable), il est possible d’étendre la zone de jeu de façon infinie. En effet, ces casques ne nécessitent pas de bases ou stations pour le tracking (contrairement à l’Oculus Rift ou l’HTC Vive), et à l’aide du backpack, on peut facilement se déplacer avec le casque et la ZEDMini.

 

Les Points Faibles:

  • La carte graphique minimum nécessaire pour l’utilisation de la ZEDMini est une NVIDIA 1070, alors que les casques de réalité virtuelle nécessitent une puissance moins importante (1060).

  • Le FOV (Field of View) est limité à 110°, et l’on peut voir les bords des écrans. Le FOV horizontal se rapproche de celui de l’Oculus (80°).

  • Plusieurs bugs lors du lancement de l’application ZEDMini sur les casques Microsoft Mixed Reality. Ces bugs ont été relayés à Stereolabs et pris en charge depuis!

  • Une latence au bout d’un certain temps d’utilisation.

 

Pour conclure, ZEDMini est un accessoire très innovant et intéressant au niveau des technologies, mais qui comporte encore quelques limites techniques. Nos équipes travaillent sur le développement d’applications utilisant la ZEDMini, et notamment pour les casques Microsoft Mixed Reality qui permettent une utilisation géographiquement illimitée.

VERNE - Collaboration et Simulation en VR // Laval Virtual 2018 !

VERNE - Collaboration et Simulation en VR // Laval Virtual 2018 !

L’équipe XXII Studio sera au Laval Virtual 2018 du 4 au 6 Avril prochains, Hall 1, stand A24.

Événement incontournable pour les acteurs de la réalité virtuelle et augmentée, nous y présenterons une expérience virtuelle unique, issue de notre studio d’innovation :

screen_7624x4056_2018-03-12_10-40-03.png

VERNE (Virtual Engineering Realistic Nautilus Experience) est une simulation virtuelle et collaborative de réparation d’un moteur.

Equipés d’un HTC Vive, de Vive Trackers et de gants Manus VR, deux joueurs sont invités à collaborer en virtuel pour manipuler et réparer au plus vite le moteur défectueux d’un sous-marin au décor soigné.

screen_7624x4056_2018-03-12_10-37-09.png

Notre objectif ?

Mixer les technologies existantes, proposer un décor virtuel poussé et soigné pour vivre une expérience virtuelle au plus près du réel.

Contactez directement David Saint-Macaire (david.saintmacaire@xxii.fr) pour organiser une rencontre sur place !

Comment Devenir Un Meilleur Commercial?

Comment Devenir Un Meilleur Commercial?

Pitchboy by JIN

Powered by XXII

Pour commencer, quelques chiffres :

  • En France, les commerciaux s’estiment mal formés

  • Il faut en moyenne 4 à 6 mois à un nouveau commercial pour être efficace

  • Seulement 58% des commerciaux atteignent leurs objectifs

  • 33% des commerciaux éprouvent des difficultés à argumenter pendant la vente

  • 98% des commerciaux estiment que l’expérience vient dans l’action

(sources CSO Insights, 2016 et Novancia, 2016)

Partant de ce constat, JIN, agence de relations publiques et d’influence digitale, a sollicité XXII pour développer une formation en réalité virtuelle, avec simulation intelligente. Effectivement, un apprenant retenant 90% de ce qu’il fait, il était essentiel de créer une méthode d’apprentissage associant cas concrets, émotions et informations pour une mémorisation efficace.

Présenté en avant-première au CES 2018 puis à Virtuality il y a quelques semaines, nous sommes fiers d’annoncer notre contribution technique sur Pitchboy by JIN, un simulateur intelligent de vente en réalité virtuelle.

Le #Pitchboy est une application vidéo en VR, disponible sur HTC Vive et Oculus, et prochainement sur de nouvelles plateformes, qui simule un “pitch” commercial pour entraîner l’utilisateur.

La session démarre lorsque le commercial met le casque de VR sur la tête et entre dans la salle de réunion “virtuelle”. En 10 à 20 minutes, la session emprunte les étapes classique d’une conversation commerciale en détaillant la présentation générale du produit/service, les bénéfices concrets, les cas d’usage clients et la présentation du ROI et du prix.

Contrairement à des formations e-learnings passives, le Pitchboy utilise la reconnaissance vocale pour engager une conversation réelle : le client virtuel relance régulièrement la conversation par des questions, qui peuvent être spontanées ou en réaction aux arguments du commercial. Ce dernier peut prendre à tout moment l’initiative d’un sujet de conversation.

pitchboy-3.PNG

La technologie utilisée dans cette solution permet au Pitchboy d’étudier les arguments utilisés par le commercial à partir d’enchaînements de mots-clés et de phrases. Il analyse également le ton et le débit de la voix, ainsi que la direction du regard.

A la fin de la session, le commercial se voit proposer une note d’évaluation globale et une note pour chacune des étapes de la simulation.

Cet outil permet non seulement de s’immerger en situation réelle dans une négociation de vente pour se former et apprendre au plus près de la réalité, mais également du feedback, de l’analyse et des corrections sur le discours commercial.

Pour en arriver là, JIN a apporté tout le contenu de formation et vidéo, tandis que XXII a développé toute la partie technique en réalité virtuelle et l’intégration de la reconnaissance vocale.

Pour en savoir plus, envoyez un message à contact@jin.fr

La Grande Messe du Retail : NRF 2018

La Grande Messe du Retail : NRF 2018

Notre country manager US 🇺🇸 , François, s’est rendu à New York mi-Janvier pour assister à l’événement mondial incontournable du retail : la NRF. Voici son retour :

" Tout d’abord, j’ai été Impressionné par la qualité de l’organisation (guides, musique, application fonctionnelle, et surtout un wifi efficace - assez rare pour le préciser) et par la taille de l’événement. Les startups (peu visibles malheureusement) étaient rassemblées au niveau 1, tandis que le hall d’exposition se trouvait sur le niveau 3. Le 2ème étage accueillait les accès lounges, les restaurants, food trucks et vestiaires. De mon côté, ce que j’ai préféré se trouvait au 4ème niveau : l’innovation lab, le retail 2020 et le showcase des technologies émergentes.

UNADJUSTEDNONRAW_thumb_6188.jpg

Il est bien de s’imaginer ce salon dans la peau d’un responsable de magasin (peu importe le secteur) qui vient sur ce salon équiper son magasin d’innovations tech pour lui faire gagner de l’argent, du temps et « offrir » une expérience unique à son client.

Toutes les plus grandes marques et références du retail français et international étaient là pour visiter : Leroy Merlin, New Balance, Adidas, Nike, Domino’s Pizza, REI, Costco, Décathlon, Home Depot, Carrefour, Best Buy, les marques de luxe, entre autres.

UNADJUSTEDNONRAW_thumb_61a4.jpg

Et toutes les grandes boîtes tech exposaient également :  American Express, IBM, Microsoft, SAP, Toshiba, Cisco, Google Cloud, Avis, Mastercard, Ingenico, Verizon Nokia, AT&T, Panasonic, Samsung, LG, Lexmark International, HP, Intel, Aptos, Oracle, Verifone, SAS, NEC, Honeywell, Fujitsu, Salesforce, Epson, etc.

Pour l’anecdote, c’est la première fois qu’Apple envoie une représentante à la NRF. Ils ont pris la même direction que Google sur la maps indoor, utilisant d’ailleurs le même exemple retail Lowe’s.

Les tendances du salon autour de l’expérience client online et offline les plus marquantes :

- La reconnaissance d’images (Intelligence Artificielle par computer vision) que ce soit pour la gestion des stocks ou le tracking facial.

- Le NLP (Natural Language Processing) avec Amazon Echo ou Google Home.

- Les Scan Robots dans les rayons pour tracker les ruptures de stocks et mapper les articles qui ne sont pas à leurs places.

- Enfin, les systèmes de paiement toujours plus simples pour accélérer l’acte d’achat et les rendre toujours plus “indolores” !

Et mon coup de coeur du salon : la vidéo rail développé par nos amis de SES-IMAGOTAG.

UNADJUSTEDNONRAW_thumb_6160.jpg

Mais finalement, l’événement (ou non événement ?) le plus intéressant était la grande absence digitale et physique d’Amazon (malgré une petite présence avec leur branche Amazon Web Services). Ils se sont fait oublier de la grande messe du retail pour mieux annoncer le weekend suivant l’ouverture du concept store AMAZON GO en bas du siège social du groupe à Seattle,  après 5 ans de travail et 1 an de retard !

Sur ce sujet, le magasin ne désemplit pas depuis son ouverture. Il faut dire que le store est situé dans la partie tech / startup de la ville, au coeur des early-adopters.

C’est un petit store qui va leur permettre de tester et d’éprouver le concept. La capacité limitée faute de taille (un peu plus de 160m2) ne va pas mettre à mal la technologie utilisée."

Ci-dessous des récaps des innovations par nos amis de l’ECHANGEUR BNP PARIBAS 

1er jour : 

https://youtu.be/HQiZc26LiMM

2ème jour : 

https://youtu.be/SdbohOLsEZ0

3ème jour : 

https://youtu.be/XSeNUbHA39k

Pour suivre Francois sur Twitter, c'est par ici.

CES 2018 : Un retour très engageant

CES 2018 : Un retour très engageant

Il y a un peu plus d’une semaine, notre équipe était à Las Vegas pour présenter, en avant-première, notre plateforme d’intelligence artificielle bio-inspirée lors du CES 2018.

En quelques chiffres, voici le résumé de ces quatre jours intenses et très formateurs :

  • 1 Suite au Venetian

  • 13 membres de l’équipe

  • Plus de 43 rendez-vous et 150 personnes en 4 jours

  • 5 délégations avec notre partenaire Hub Institute

  • 10 rencontres journalistes

  • 60 mentions, 297 j’aime et plus de 182 retweets sur Twitter

Après avoir beaucoup échangé avec des entreprises de renom telles que Bouygues, LVMH, EDF, La Poste, Air France, Aéroports de Paris, entre autres, nous retenons une vraie appétence pour les technologies d’intelligence artificielle et surtout pour les usages multiples qui peuvent en être fait.

Il y a un réel besoin d’automatisation des tâches et surtout d’apport de compétences supplémentaires dans le travail. C’est le but de notre IA, être une aide et une compétence additionnelle.

Mais comme une vidéo vaut 10 000 mots, découvrez notre démo ici et retrouvez Adrian Branco de 01Net ainsi que LCI, qui nous a suivi pendant une semaine pour découvrir le CES de l’autre côté de la barrière !

Happy New Year from XXII

Happy New Year from XXII

2018 nous accueille avec ses promesses, ambitions et opportunités. Toute l’équipe XXII vous souhaite une EXCELLENTE ANNEE 2018, remplie de joie, bonheur, santé et succès.

2017 pour nous ?

Une année de très forte croissance, d’organisation, d’évolution, de beaux événements comme le VivaTech, de renforcement de l’équipe et surtout d’ouverture à l’international avec notre bureau chinois. Ce fut aussi l’année de nombreux projets avec des clients de renom tels que Galeries Lafayette, Futuroscope, HotelF1, Pago, Cartier, TF1, Sephora entre autres, et de travail acharné de notre R&D sur nos briques d’intelligence artificielle bio-inspirée.

Que nous réserve 2018 ?

Une exposition internationale au CES de Las Vegas, le lancement de nos premières briques d’intelligence artificielle, notamment pour le retail et la sécurité, la poursuite de nos projets innovants en réalité virtuelle et réalité augmentée, le renforcement de notre stratégie internationale avec l’arrivée d’un membre XXII à Seattle pour démarrer les activités aux Etats-Unis, et bien évidemment la poursuite de notre croissance.

Nous gardons à coeur de faire constamment évoluer XXII, de toujours satisfaire nos clients et surtout d’avancer, avec le coeur.

Nous vous souhaitons à tous le meilleur pour cette nouvelle année !

William Eldin, CEO


 

Intelligence Artificielle: Retail et Sécurité // CES 2018

Intelligence Artificielle: Retail et Sécurité // CES 2018

L’équipe XXII est ravie de vous annoncer sa présence au CES 2018 de Las Vegas, du 9 au 12 Janvier.

C’est une étape internationale importante pour nous, de par son ampleur et ses opportunités de business, de réseau et de visibilité, et de par les offres de notre IA bio-inspirée que nous allons montrer.

signature-CES-v5.png

Venez nous retrouver dans la suite 30-121 du Venetian, dans le calme à l’extérieur des zones d’exposition pour échanger et découvrir, en avant-première, les premiers produits de notre plateforme d’intelligence artificielle bio-inspirée, au travers d’un parcours concret :

> Retail : identifiez et analysez le nombre de personnes dans votre magasin, les zones “chaudes” et “froides”, les produits mis dans le panier en temps réel, ainsi que les émotions de vos clients face aux produits, PLVs, etc. Tout cela avec une restitution et analyse des données en temps réel !

> Sécurité : soyez alertés en temps réel en cas d’agression, de chute ou de situation dangereuse grâce à l’analyse de comportements.

Notre équipe de choc sera sur place, dont notre CEO, William Eldin, et notre Docteur en IA, Souheil Hanoune.

Contactez directement François Bon (francois.bon@xxii.fr) pour nous rencontrer !

Cinq questions sur l'EEG

Cinq questions sur l'EEG

EEG, pour électroencéphalogramme : derrière ces trois petites lettres et ce mot savant se trouve une des technologies les plus susceptibles de révolutionner la manière dont nous interagissons avec la technologie.

Voici donc cinq questions pour vous permettre de mieux comprendre à quoi cette technologie peut servir !

Mais qu’est ce donc qu’un casque EEG ?

Comme expliqué dans cet article, le cerveau émet plusieurs types d’ondes, associées à différents types d’actions. Un casque EEG permet de mesurer cette activité électrique grâce à des électrodes fixées sur le crâne. Une fois le casque relié à une unité de traitement et le signal récupéré traité par un programme, il est possible d’assimiler les impulsions électriques à des actions particulières.

Comment cela fonctionne-t-il ?

Concrètement, un casque EEG se présente sous la forme d’un bandeau, souple ou rigide, sur lequel sont fixés deux jeux d’électrodes. Pour réussir à isoler les courants électriques émis par les couches supérieures du cerveau, un tri est fait parmi l’activité électrique mesurée par le casque, grâce à un différentiel entre les électrodes de mesures et les électrodes de références. En effet, les impulsions électriques cérébrales sont extrêmement faibles et nous baignons dans un ensemble de signaux qui produisent des interférences non négligeables. La précision des mesures étant la clé du fonctionnement des casques EEG, il faut maximiser certaines caractéristiques matérielles du casque, comme la capacité des électrodes à conduire le courant détecté. Deux modèles de casques EEG différents ne mesureront donc pas la même chose en fonction des matériaux qui le composent.

Le casque EEG est ensuite relié à une unité d’acquisition afin d’amplifier les signaux mesurés. Parmi les solutions Open Source, Open BCI reste la plus performante et la plus abordable. Cette part du processus est très importante pour recueillir des données suffisamment propres pour être traitées correctement.

Les données sont ensuite envoyées vers un ordinateur pour être analysées.

Que peut-on mesurer ?

Pour pouvoir déterminer quels ensembles d’impulsions électriques correspondent à quelles actions ou quelles intentions, il est nécessaire d’« entraîner » le casque, puisque chaque personne a une façon particulière de solliciter les différentes zones de son cerveau. Même si des généralités demeurent, il faut calibrer l’usage du casque sur son utilisateur en fonction des actions que l’on veut détecter.

Ainsi, si l’on veut mesurer la concentration d’une personne, il suffit de surveiller l’évolution de ses ondes Beta basses (entre 12 Hz et 15 Hz) : plus elles sont mesurables, plus la personne est concentrée, c’est à dire que son cerveau est focalisé sur une tâche spécifique, et ne change pas de sujet de réflexion entre temps. Il est également possible de détecter les mouvements envisagés par la personne : en effet, la zone responsable de la planification du mouvement est située en périphérie du cerveau, juste au sommet du crâne, tandis que les ondes associées au mouvement sont très facilement détectables par l’EEG.

Quelles sont les applications de l’EEG?

Grâce au casque EEG, on peut imaginer commander des interfaces informatiques sans interagir physiquement avec les machines en elles-même. Des applications en médecine sont envisageables, notamment pour les patients atteints de paralysie, mais aussi dans le cas de patients équipés de prothèses. De nombreuses études se penchent sur l’utilisation d’interfaces cerveau-ordinateur (Brain Computer Interface ou BCI pour nos amis anglophones) pour commander des membres artificiels, pour le plus grand plaisir des transhumanistes.

Les casques EEG peuvent aussi être utiles dans le divertissement, en proposant des commandes de jeux encore plus immersives, ou encore dans la sécurité, avec des applications d’authentification.

Quelles sont les limites de l’EEG ?

Un des inconvénients de ces casques est leur manque de précision. Contrairement aux solutions invasives, les casques EEG sont des solutions passives qui ne peuvent capter que l’activité périphérique du cerveau. Les courants générés au centre du cerveau ne sont pas perceptibles, ce qui laisse un grand nombre de régions cérébrales importantes hors d’atteinte.

Il est également impossible pour le moment d’arriver à définir à quelle profondeur se situe les signaux reçus : un signal faible provenant de la périphérie du cerveau se retrouve au même niveau qu’un signal fort provenant des couches plus en profondeur.

Il est certes possible de contrôler des prothèses de membres par la pensée, et d’ici à penser que la technologie nous permettra de lire dans les pensées il n’y a qu’un pas… Qui n’est pas prêt d’être franchi.

Ce que mesurent les casques EEG, ce sont des signaux électriques sur une gamme restreinte qui n’ont que peu de choses à voir avec les pensées en elle-même. Pas de risques donc de voir vos réflexions espionnées !




 

 


 

Ce que vous ne savez pas sur votre cerveau...

Ce que vous ne savez pas sur votre cerveau...

Chez XXII, nous avons plusieurs passions : les jeux vidéo, les voitures, la science-fiction… Mais ce que nous aimons par dessus tout, ce sont les mystères des intelligences et du cerveau humain. Alors si comme nous, vous rêvez de comprendre un peu mieux ce qu’il se passe dans votre tête, vous êtes au bon endroit !

Des bénéfices de l’exercice

Avant toute chose, il est important de rappeler que le cerveau évolue au fil du temps, mais aussi et surtout en fonction de l’usage qu’on en fait. Contrairement à l’idée reçue selon laquelle le cerveau commence à décliner après 25 ans, une étude a pu montrer que les capacités cognitives connaissaient des « pics » différents en fonction des tranches d’âge. Ainsi, l’intelligence cristallisée (basée sur la faculté de tirer partie de l’expérience) atteindrait un maximum entre 45 et 50 ans, quand les jeunes adultes aux alentours des 25 ans connaîtraient leur maximum de performance en terme de mémoire à court terme.  

 Carte des canaux traversant le cerveau ( Human Connectome Project ) : les fibres rouges sont orientées de gauche à droite, les verts sont orientées de l'avant vers l'arrière, tandis que les bleus sont orientées de haut en bas.

Carte des canaux traversant le cerveau (Human Connectome Project) : les fibres rouges sont orientées de gauche à droite, les verts sont orientées de l'avant vers l'arrière, tandis que les bleus sont orientées de haut en bas.

A la naissance, les différentes régions du cerveau sont semblables à des villes isolées. Le processus d’apprentissage que nous menons tout au long de notre vie permet de créer des routes entre ces zones, en fonction des corrélations que nous établissons entre les informations que nous recevons. En règle générale, la répétition des informations contribue beaucoup à l’intégration de nouveaux concepts, tout comme le contexte dans lequel les informations sont présentées, ou encore leur ancrage émotionnel. Ce qui explique que vous ayez besoin de voir une personne et d’entendre son prénom plusieurs fois avant de vous souvenir de ces informations, à moins que celle-ci ne vous ai fait une forte impression.

Avec l’âge, et face à la quantité d’informations que nous absorbons chaque jour, nous sommes petit à petit confrontés à des problématiques d’optimisation. Comme sur un réseau routier, les « routes » les plus empruntées sont bien entretenues, tandis que celles qui le sont occasionnellement sont peu à peu supprimées. Mais de la même manière que l’on peut se maintenir en forme quelque soit l’âge, il est également possible de mieux gérer ce processus de sélection en continuant d’exercer régulièrement son cerveau.

La carte du cerveau

Au fil du temps, les chercheurs ont dressé une carte du cerveau, pour les aider à mieux comprendre cet organe si complexe.

brain-990x622.png

Le cerveau se divise donc en quatre lobes, plus ou moins identiques d’un individu à un autre :

  • Le lobe occipital : Dédié au traitement des données visuelles, c’est également le plus petit des lobes.

  • Le lobe pariétal : Associé à la gestion des inputs sensoriels, mais aussi au repérage dans l’espace et à la navigation.

  • Le lobe temporal : Regroupe les pôles de mémoire visuelle et émotionnelle, et de la compréhension du langage.

  • Le lobe frontal : Gère les fonctions cognitives, comme la résolution de problèmes, ainsi que l’aspect culturel et sociétal de notre fonctionnement, notamment en conservant les règles de savoir-vivre en société.

A cette liste s’ajoute le cervelet, aussi appelé cerveau reptilien, qui est le vestige le plus ancien de notre cerveau. Il s’occupe de fonctions comme la coordination ou la régulation de la peur et du plaisir, ce qui en fait une des zones contrôlant ce qui relèvent des réflexes de survie. On compte également la moelle épinière, retour nerveux d’une grande partie des informations collectées par le reste du corps.

Cette découpe est évidemment plus pratique que strictement fidèle à ce qu’il se passe réellement dans notre tête. Certaines « fonctions » sont réparties sur plusieurs zones, comme le langage. En effet, quatre zones entrent en jeu : les aires de Wernicke et Broca, connectées par le faisceau arqué et respectivement situées dans le lobe temporal et frontal, gèrent la compréhension écrite et orale du langage, tandis qu’une partie des facultés motrices liées au langage est gérée par le lobe frontal.

Le langage du cerveau

Afin de communiquer entre elles, les différentes parties du cerveau utilisent un ensemble de protéines, transmises par les synapses sous l’impulsion de décharges électriques. Malheureusement, nous ne sommes pour l’instant capable que de mesurer les composantes électriques des communications cérébrales ainsi que le fonctionnement global (via des IRM notamment) : c’est un peu comme si nous ne pouvions que surveiller le trafic autoroutier et les agents qui le régulent, sans pouvoir dire quel véhicule transporte quoi.

Quoi qu’il en soit, la mesure de l’amplitude et de la fréquence des ondes cérébrales générées par l’activité électrique des neurones permet de comprendre en temps réel une partie des actions opérées par le cerveau. Classées selon leur fréquence, ces ondes sont divisées en plusieurs catégories :

  • Delta, de 0-4 Hz

  • Theta, de 4 - 8 Hz

  • Alpha et Mu, de 8 - 12 Hz

  • Beta, de 12 - 36 Hz

  • Gamma, de 36 - 200 Hz

Les ondes delta et theta sont les ondes émises par le cerveau lors des phases de sommeil ou de méditation, et sont plus généralement reliées à tout ce qui touche à l’inconscient, comme la créativité ou les fonctions naturelles corporelles. Les ondes alpha correspondent au niveau d’activité du cerveau en éveil ainsi que lors d’activités musculaires. Les ondes bêta sont quant à elles divisées en trois catégories, les basses, les moyennes et les hautes, respectivement associées à la résolution de problèmes et à l’imagination ou l’abstraction. Les ondes Gamma correspondent à la transmission d’informations.

En mesurant ces ondes via des outils comme des casques EEG (Electroencéphalographie), il est possible d'identifier quelle action une personne va mener : si elle s’apprête à lever les bras ou à bouger les jambes, les mesures des ondes Mu vont montrer un pic d’activité, tandis que si la personne se concentre pour résoudre un problème, on verra une augmentation de l’activité des ondes Beta hautes.

Vers un monde sans interfaces

Nos connaissances sur le cerveau continuent d’évoluer, et de nombreuses zones d’ombres restent à éclaircir. A chaque avancée, nous prenons conscience des possibilités technologiques associées, en même temps que de nos propres limitations.

Combinées à d’autres sciences, comme les nanotechnologies, les sciences cognitives ou encore l’informatique, les neurosciences révolutionnent de nombreux domaines technologiques, comme l’Intelligence Artificielle ou les interfaces Homme / Machine.

Plus nous avançons dans la compréhension du cerveau, plus le rêve de l’Humain Augmenté s’éloigne de la science-fiction pour entrer dans la sphère des possibles. Et c'est finalement cela qui nous motive chez XXII : ne pas seulement penser le futur, mais contribuer à le réaliser !







 

L'émotion au service des marques

L'émotion au service des marques

Si vous êtes une marque, il y a de fortes chances que l’une de vos préoccupations principales soit votre relation client. Comprendre les besoins et les attentes de son public est essentiel pour rester pertinent, et continuer de proposer des services et des produits utiles ou attractifs.

Jusqu’à présent, les marques ne pouvaient qu’analyser les données qu’elles rassemblent sans pouvoir les contextualiser. Les avancées en Intelligence Artificielle pallient maintenant à ce problème en permettant de comprendre ce que ressentent les consommateurs lors de leur expérience en magasins.

Grâce à des méthodes de computer vision et d’analyse vocale, il est désormais possible d’interpréter de manière plus fine les variations de différents indicateurs (ventes, fréquentation), en les replaçant dans un contexte plus large (organisation des vitrines, qualité de la présentation des produits, …).

Concrètement, comment ça fonctionne ?

Comme beaucoup de techniques en vogue en ce moment, le marketing émotionnel se base maintenant sur la reconnaissance faciale pour analyser les micro-expressions du visage et y associer des émotions, ainsi que sur la reconnaissance vocale pour relier les intonations de la voix au sens des commentaires émis.

Ces retours sont ensuite analysés par un algorithme, permettant d'agréger les données anonymisées pour déterminer des tendances - si votre clientèle est globalement surprise ou mécontentée par un élément de votre devanture, ou au contraire si les passants sont souriant en s’arrêtant devant votre vitrine. Les individus en tant que tel ne sont pas analysés, mais assimilés à des profils types, offrant plus de possibilités de personnalisation en fonction de ces personas. Aucune donnée biométrique n’est conservée, et les images ou les sons échantillonnés sont analysés uniquement par des machines qui ne conserveront aucun moyen de remonter jusqu’à un individu en particulier.

Quels cas d’usage ?

Le retail est l’un des secteurs dans lesquels ces technologies sont les plus simples à implémenter. Les caméras déjà installées dans les magasins permettent par exemple d’analyser le comportement des clients et d’en tirer des enseignements pour améliorer l’optimisation du parcours client. Les informations en temps réel aident les marques à améliorer leur service client, en orientant leurs vendeurs vers les zones où les clients ont l’air plus perplexes ou hésitants.

Mais il est également possible de penser à des applications dans le domaine de l’aide à la personne, pour mieux comprendre les personnes avec des difficultés de communication, ou encore de la sécurité, en détectant en amont des comportements suspects, et rapidement aider à prendre des décisions en conséquence.

En bref, les cas d’usage sont nombreux.

Gagnant-Gagnant

Si le prisme commercial est l’application la plus directe de l’analyse émotionnelle, ces avancées sont le signe d’une amélioration progressive des services tels que nous les connaissons. Pour les marques, cela signifie une possibilité d’interactions sans précédents avec leur public ; pour le consommateur, l’accès à des expériences clients moins envahissantes et plus personnalisées sont à portée de main, que ce soit dans le retail, l’administratif, la santé, et bien d’autres encore …

Les réseaux de neurones artificiels, le cerveau de demain?

Les réseaux de neurones artificiels, le cerveau de demain?

Les réseaux de neurones artificiels. Voilà un concept absolument fascinant. A l’origine conçus pour imiter les réseaux de neurones biologiques, les réseaux neuronaux artificiels sont devenus des paradigmes de développement, une façon complètement différente de concevoir des algorithmes.

giphy-downsized.gif

La genèse des réseaux de neurones artificiels

A l’origine, les premiers réseaux de neurones tentaient de formaliser mathématiquement un système informatique reproduisant le fonctionnement du cerveau humain. Concrètement, il s’agissait d’un assemblage d’opérateurs logiques, le tout permettant de traiter les informations en se basant sur une logique de seuil.

Les réseaux de neurones ont commencé à se développer aux alentours des années 40, avec les travaux de Warren McCulloch and Walter Pitts. Si leur approche était principalement orientée vers des applications mathématiques, d’autres scientifiques se sont penchés sur la question d’un point de vue plus théorique.
A partir de là, et à chaque avancée dans le domaine des réseaux de neurones, deux familles d’approches se sont développées : celles orientées vers la retranscription toujours plus fidèle du fonctionnement biologique du cerveau humain, et celles orientés vers l’utilisation de ces théories en Intelligence Artificielle, notamment pour permettre d’effectuer des calculs toujours plus complexes plus vite.

 Le perceptron est copié du neurone biologique : les entrées xj du perceptron sont affectées d'un poids wij. La fonction de seuil définie dans la soma permet de déterminer la sortie yj.

Le perceptron est copié du neurone biologique : les entrées xj du perceptron sont affectées d'un poids wij. La fonction de seuil définie dans la soma permet de déterminer la sortie yj.

Indissociable de la notion d’IA, les réseaux neuronaux ont été l’origine du premier boom de l’IA, mais ils ont aussi contribué à son premier hiver.
En effet, le premier modèle du neurone artificiel à être implémenté est le perceptron. Développé par Frank Rosenblatt en 1957, ce modèle très simple permettant d’aborder de nouveaux problèmes comme la catégorisation d’image.

 Pour reconnaître un caractère, les algorithmes le découpent en différentes sections et recensent les zones "blanches" et "noires".

Pour reconnaître un caractère, les algorithmes le découpent en différentes sections et recensent les zones "blanches" et "noires".

Malheureusement, le perceptron monocouche permettait uniquement de traiter les problèmes linéaires, comme la reconnaissance de caractères simples. Assemblées en une seule couche, des opérations logiques essentielles comme les disjonctions exclusives (XOR pour les intimes) n’étaient pas prises en charge. Contrairement aux attentes démesurément enthousiastes de l’époque, le perceptron n’était finalement pas capable de tout apprendre.

L’avènement des réseaux de neurones

 Ce  Gif  illustre le fonctionnement d'un réseau de neurones artificiels et de la rétropropagation du gradient. 

Ce Gif illustre le fonctionnement d'un réseau de neurones artificiels et de la rétropropagation du gradient. 

Il a fallu attendre les années 80 avec la révolution dans les méthodes de calcul d’erreurs liées aux réseaux de neurones. Les théories et travaux de Werbos et Rumelhart sur la rétropropagation du gradient ont permis de calculer l’erreur liée à chaque neurone d’un réseau, et ainsi de superposer plusieurs couches de neurones. A partir de là, les capacités des réseaux de neurones se sont multipliées.

Les réseaux de neurones artificiels peuvent classifier des données en se basant sur la reconnaissance de motifs récurrents, et de fait détecter des anomalies ou des nouveautés lors de l’analyse d’échantillons de données. Ils peuvent également traiter des signaux, ou encore effectuer des prédictions en essayant de traduire sous forme de fonctions les données à leur disposition. De fait, les réseaux neuronaux sont extrêmement utiles pour plusieurs types d’applications : reconnaissance faciale ou vocale, reconnaissance de caractère, traduction de texte, jouer contre des humains à des jeux de sociétés, etc…

Apprentissages supervisé et non-supervisé

Parmi les aspects les plus importants de l’élaboration des réseaux de neurones se trouvent la notion d’apprentissage. Les plus “célèbres” sont les apprentissages supervisés et non-supervisés.

Dans un cas, les systèmes sont entraînés sur des bases de données fournies par un tuteur humain, assorties d’informations sur les sorties valides à retourner. Par exemple, dans le cadre de l’apprentissage pavlovien, le superviseur doit fournir à l’IA les résultats correspondants aux entrées du set de données d'entraînement afin que celle-ci puisse en quelque sorte apprendre avec un “modèle”.
Le premier système se rapprochant de ce principe est le réseaux ADALINE, créé par Bernard Widrow et Ted Hoff en 1960.

Dans l’autre, les systèmes sont entraînés « sans » supervision humaine. Ce développement découle quant à lui des théories d’apprentissage Hebbien, qui suppose que deux neurones sollicités en même temps vont se lier l’un à l’autre et ainsi renforcer ou défaire les liaisons synaptiques entre les différents neurones. A l’aide d’un set de données non-commentées, le système devra organiser les informations en leur trouvant des corrélations. Concrètement, le système sera alimenté avec des données non commentées, que le système catégorisera selon des critères qui lui sont propres, notamment en se basant sur les différences et ressemblances entre deux informations.

D’autres types d’apprentissage existent également, notamment l’apprentissage par renforcement. Très utilisé dans le cadre de la robotique, notamment dans la navigation, cette méthode d’apprentissage se base sur l’évolution d’un système dans son environnement. Si l’on prend l’exemple d’un robot se dirigeant au milieu d’une pièce encombrée de cartons, avec pour mission d’en sortir, le système recevra comme un retour négatif le fait de se heurter aux obstacles, et un retour positif l’absence de choc ou le fait de continuer à s’acheminer vers la sortie. A force de chercher les retours positifs, le robot finira par mémoriser la topologie de la pièce et sortir de celle-ci.

L’équation de l’intelligence

Afin de pouvoir traduire les différentes théories qui sous-tendent les réseaux de neurones et leur permettre d’être implémentées simplement et proprement dans les algorithmes d’IA, certains réseaux de neurones ont peu à peu perdu leur ressemblance avec leurs modèles biologiques.

De fait, certains types de réseaux neuronaux se sont orientés de manière à répondre de manière optimale à la problématique qui leur aura été assignée. Bien que de grandes « familles » existent, comme les réseaux de neurones sigmoïdes ou les cartes de Kohonen, il existe finalement autant d’architectures de réseaux neuronaux que de programmeurs.

Il se pourrait que la prochaine avancée dans ce domaine ne soit rien de moins que la découverte d’une formalisation de l’intelligence...

Ajouté à cela le fait que les combinaisons entre les différentes famille de réseaux sont tout à fait possibles, il est quasiment impossible d’expliquer le sens exact des calculs des réseaux de neurones en interne. Deux réseaux avec la même architecture globale et des paramètres légèrement différents peuvent trouver des sorties complètements différentes, là où deux réseaux complètement différents pourront trouver la même sortie en fonction des paramètres d’entrée.

Pour l’heure, il n’existe pas d’équations décrivant exactement le sens du comportement d’une information au coeur d’un réseau de neurones. On se contente d’un historique de cas d’utilisation, et d’une base de connaissance sur ce qui a marché et ce qui a échoué. Il s’agit d’un domaine d’étude qui nécessite l’apport de plusieurs sciences, comme la biologie, les sciences cognitives, les mathématiques… Malgré le fait que ce champs d’étude n’est absolument pas nouveau, à l’échelle de la compréhension complète du phénomène, nous en sommes encore aux balbutiements.

Finalement, il se pourrait que la prochaine avancée dans ce domaine ne soit rien de moins que la découverte d’une formalisation de l’intelligence...

Envie de tester l'AR? Suivez le guide !

Envie de tester l'AR? Suivez le guide !

La réalité augmentée fait beaucoup de bruit ces derniers temps, et peut-être avez-vous eu envie de vous faire votre propre avis sur le sujet. Alors si vous ne savez pas par où commencer, suivez le guide !

Les applications sur tablette ou smartphone : le plus économique

La réalité augmentée sur les stores ne date pas exactement d’hier. Google et Apple proposaient il y a quelques mois déjà des applications en AR sur le Play Store et l’App Store. Sauf que ces applications sont en fait de la « fausse » réalité augmentée. Dans la plupart des cas, il s’agit simplement de modèles 3D placés en surimpression de l’écran sans considération d’échelle ou d’éclairage, ou nécessitant des marqueurs dans la scène pour pouvoir afficher quoi que ce soit de manière « cohérente » sur l’écran d’un utilisateur.

 LightSpace

LightSpace

 Stack AR

Stack AR

 Cubit

Cubit

Avec la dernière mise à jour d’Apple, iOS 11, le nombre d’applications promet d’augmenter régulièrement. Plusieurs applications développées avec ARKit sont d’ailleurs déjà disponible sur l’App Store. Petite sélection de nos favoris :

Quant à Android… Pour le moment, aucune application développée via ARCore n’est disponible sur le Play Store.

Le casque HoloLens : le plus professionnel

Si l’AR commence à se populariser grâce à son arrivée sur mobile, d’autres appareils permettent d’expérimenter la réalité augmentée depuis quelques temps déjà.

hololens.jpg

Développé par Microsoft, le casque Hololens est certainement LA référence professionnelle des devices AR. Pas besoin de marqueurs, ni de tenir son téléphone ou sa tablette à bout de bras, ces lunettes proposent l’intégralité des applications Microsoft, comme la suite Office, mais aussi quelques jeux, comme RoboRaid. La prise en main est assez intuitive, l’interaction avec le casque ne se faisant pas avec des manettes de contrôle mais avec les mains.

Petit hic : son prix. Le HoloLens est surtout destiné aux entreprises : la version développeur est accessible pour la modeste bagatelle de $3,000, et il faut compter $2,000 supplémentaires pour la version commerciale.

Le casque Mira Prism : le plus pratique

Si vous n’avez pas de $5,000 à dépenser pour un casque de réalité augmentée, quelques options moins coûteuses s’offrent à vous, bien qu’encore assez peu répandues.

Le casque Mira Prism est probablement l’option la plus abordable, avec un prix maximum affiché de $149. Accessible pour l’instant uniquement aux développeurs, le casque devrait bientôt être disponible pour les consommateurs.

A la manière du casque Samsung Gear VR (pour la réalité virtuelle), le Mira Prism nécessite un smartphone pour fonctionner, en l'occurrence un iPhone 6, 6s ou 7.

Pour compléter la panoplie, une télécommande et une sorte de plateau sont également fournis. La télécommande permet d’interagir avec les animations projetées sur le casque, tandis que le plateau sert de repère pour orienter et situer ces animations.

Le petit plus : un mode spectateur existe également, pour pouvoir suivre sur smartphone l’expérience des utilisateurs même sans être muni du casque !

L’AR du futur

Si aujourd’hui nos expériences AR passent principalement par nos smartphones, nous évoluons petit à petit vers d’autres supports. Les chiffres sont formels, notamment en Chine : le marché des appareils AR/VR continue d’augmenter, avec en tête les devices « mains libres » utilisant des smartphones pour superposer leur contenu au réel, comme le Mira Prism.

 Image tirée d'un brevet déposé par Magic Leap

Image tirée d'un brevet déposé par Magic Leap

Ajouté à cela les levées de fond répétées de Magic Leap, qui ne cesse de promettre un nouveau type de lunettes AR, on arrive vite à la conclusion que le futur de l’AR est juste devant nos yeux !

L'AR et l'IA, ou l'extinction des smartphones

L'AR et l'IA, ou l'extinction des smartphones

Ces derniers temps, deux acronymes, IA et AR, reviennent assez régulièrement en tête des articles ou des descriptifs des startups tendances.
Si certains abusent effectivement de ces mots en les employant à toutes les sauces comme des mots-clés à peu près vides de sens mais remplis de potentiel en période de levée de fonds, il n’en reste pas moins que ces deux technologies sont en passe de révolutionner complètement notre rapport au monde en général et à la technologie en particulier.

Un premier pas vers la révolution des interactions

En effet, l’arrivée de la réalité augmentée (AR) ajoute littéralement une dimension de plus aux interactions que nous entretenons quotidiennement avec la technologie. Il est maintenant possible de mettre en contexte l’information dans un environnement spatial particulier, voire de permettre aux utilisateurs d’évoluer à l’intérieur de l’interface d’une application, ou des données d’un site web comme le cours de la bourse, en avançant ou en pivotant au sein de l’environnement virtuellement augmenté.

giphy-downsized-large.gif

Cette redéfinition du rôle de l’utilisateur et des entreprises dans le partage d’information va changer beaucoup de choses, en particulier dans notre manière de consommer et de diffuser ces informations.

Des échanges plus naturels…

Pour les entreprises, cela rend possible une approche plus subtile et plus ludique de leur relation avec leur public. Certaines marques ont déjà bien compris cet état de fait, et ont développé des applications proposant leurs produits tout en adressant intelligemment les questionnements habituels de leurs consommateurs : IKEA répond désormais aux fameux « Mais est-ce que ce fauteuil rentrera chez moi ? » et « Cette couleur-là, à ton avis, ça donnerait quoi sur le canapé du salon ? » via leur application.

Et les potentielles applications de l’AR ne s’arrêtent pas là. On pourra imaginer laisser à ses amis des suggestions relatives au choix d’un menu particulier dans un restaurant, se retrouver plus facilement dans une foule de festivaliers ou encore proposer des promotions et détails sur une marque lors du scan du logo d’une enseigne donnée.

… Et bientôt plus intelligents

C’est précisément ce bouleversement des échanges qui va servir de terreau fertile à l’épanouissement de notre relation à l’IA. Ces nouvelles méthodes d’affichage et d’interactions vont amener une intégration plus fluide des applications de l’IA au quotidien, en augmentant au passage notre rapport à notre réalité.

Grâce à la vision par ordinateur, il est possible d’identifier de plus en plus d’éléments de notre quotidien. Obtenir des informations sur une oeuvre d’art dans un musée, ou simplement trouver le modèle de ces gants qui vous ont tapé dans l’oeil, deviendra aussi naturel que regarder autour de vous, donnant ainsi accès à une quantité incroyable de savoir et d’actions.

Des algorithmes de machine learning seront quant à eux capables de vous indiquer les endroits susceptibles de vous intéresser le plus autour de vous en fonction de vos goûts, estimés en analysant les données générées par des milliards de smartphones et d’expériences en ligne d’utilisateurs similaires à votre profil.

Une évolution nécessaire

D’aucun pourrait dire qu’on assisterait alors à une réduction de la réalité plutôt qu’à une augmentation de celle-ci, en maintenant l’utilisateur dans sa zone de confort et en ne lui présentant que les informations relatives aux sujets qui l’intéressent.

Néanmoins, face à l’augmentation exponentielle des données accessibles, il devient de plus en plus nécessaire d’être aidé dans notre tâche de sélection quotidienne pour continuer à emmagasiner efficacement du savoir sans être noyé dans le flux constant d’informations qui nous entourent.

giphy (3).gif

Sans parler du fait que les IA font très souvent un meilleur travail que l’homme en terme de découverte de nouveaux contenus susceptibles de plaire à un utilisateur lorsqu’elles ont accès à suffisamment de données et qu’elles ne sont pas biaisées par des impératifs commerciaux (suggestions sponsorisées, contrats de partenariats, etc…).

Vers l'extinction des smartphones

De fait, il est vital de bien penser l’intégration visuelle de ces applications tout comme les algorithmes qui les sous-tendent, et les supports potentiels qui nous permettront d’accéder à cette réalité augmentée. Parce que les dérives sont évidemment possibles, comme celles présentées dans le court-métrage Hyper-Reality, il nous faut dès aujourd’hui travailler à la disparition progressive des supports technologiques que nous connaissons.

Dans un futur pas si lointain, ces technologies vont provoquer la fin des smartphones ordinateurs, et autres tablettes.

La synergie des sciences va aller en s’intensifiant, c’est un fait clairement établi. L’IA, l’AR, les BCI (Brain Computer Interfaces) et les NBIC (Nanotechnologies, Biotechnologies, Informatique et sciences Cognitives), pour ne citer que les plus en vogue, vont s’interconnecter de plus en plus, probablement jusqu’à devenir indissociables. Dans un futur pas si lointain, ces technologies vont non seulement provoquer la fin des smartphones ordinateurs, et autres tablettes, mais aussi l’émergence d’usages futuristes encore cantonnés aux rêves transhumanistes.

Que ce soit au niveau des voitures autonomes, des interfaces Homme-Machine, ou de la robotique, l’AR et l’IA ont beaucoup à offrir.

Nous sommes certes à l’aube de cette révolution, mais elle est bel et bien en marche, et nous avons l’intention d’en faire partie !

Pourquoi et comment utiliser ARKit ?

Pourquoi et comment utiliser ARKit ?

ARKit… Nous attendions un peu plus d’informations à ce sujet lors de la Keynote d’Apple, beaucoup plus centrée sur le hardware que sur leur nouveau SDK. Néanmoins, quelques annonces ont été faites, notamment la possibilité de tracker les visages grâce à la caméra frontale TrueDepth du nouvel iPhone X.

En attendant plus d’informations de la part d’Apple sur le sujet, voyons voir ce que nous savons déjà sur ARKit. Comme expliqué dans un précédent article, l’ARKit d’Apple permet de simplifier grandement le développement d’applications iOS en réalité augmentée.

Et c’est une excellente nouvelle pour la démocratisation de l’AR : il suffit de constater le succès du compte Twitter @madewithARKit, dépassant les 5 000 retweets avec l’incrustation d’un portail menant vers une jungle imaginaire.

Les domaines pouvant bénéficier de cette démocratisation sont nombreux, du retail à l’éducation en passant par le service client… Alors comment sauter le pas et vous lancer vous aussi dans l’AR?

Il va vous falloir… Un Mac

Pour développer sur ARKit, il vous faut installer la version 10.13 de macOS, Xcode 9, et surtout, surtout, iOS 11 sur votre iPhone ou votre iPad.

A noter, seuls les appareils dotés des processeurs A9 ou plus sont capables de fonctionner correctement avec les applications développées avec ARKit. Votre application ne pourra donc être disponible que pour les téléphones à partir de l’iPhone 6s, et les iPads de la 5ème génération et au-dessus.

 Seuls les  téléphones  à partir de l’iPhone 6s, et les iPads de la 5ème génération et au-dessus sont compatibles avec ARkit.

Seuls les téléphones à partir de l’iPhone 6s, et les iPads de la 5ème génération et au-dessus sont compatibles avec ARkit.

Une fois toutes ces formalités réglées, il ne vous reste qu’à créer un nouveau projet “Réalité Augmentée” sur Xcode.
Et c’est tout... Ou presque !

Du code, mais pas seulement

Si ARKit est un outil destiné aux développeurs, il nécessite toutefois une réflexion en amont afin de proposer une expérience utilisateur optimale.

Pour aider, Apple a publié des guides pour penser les applications développées avec leur outil. Ce sont certes des astuces basiques, qui nécessitent une réflexion plus poussée pour parvenir à un rendu final vraiment ergonomique, mais c’est un bon début pour comprendre un peu mieux la philosophie derrière l’AR.
En effet, certaines contraintes sont à envisager lors de la création d’une app en AR.

L’AR en est encore à ses débuts, et les utilisateurs n’ont pas nécessairement le réflexe de sortir leur téléphone au moment où votre application leur sera la plus utile, ou même dans un endroit où elle fonctionnera de manière optimale. L’utilisateur pourra décider de l’ouvrir dans le bus, dans son lit tard le soir, ou bien dans une grande pièce blanche, soit autant de conditions franchement défavorables à l’utilisation d’une application AR qui n’a pas été correctement pensée en amont.

 Extrait des indications du guide sur les interfaces ARKit d'Apple.

Extrait des indications du guide sur les interfaces ARKit d'Apple.

Il faut donc réfléchir correctement à la manière de guider l’utilisateur sur les conditions optimales et le moment idéal d’utilisation de votre application. Cela peut passer par des alertes, des tutoriels… L’essentiel est de bien comprendre que l’utilisateur doit faire le choix de l’AR, et qu’il faut l’accompagner du mieux possible.

L’incrustation, ou la clé de la vraisemblance

Il faut également considérer la qualité visuelle de votre application : tout l’enjeux de l’AR est de rendre vraisemblable l’intrusion d'éléments virtuels dans un environnement réel. Il est donc très important d’apporter un soin particulier à la direction graphique de votre produit.

Plusieurs techniques sont envisageables pour arriver à un degré de réalisme confondant, comme la combinaison gagnante modélisation 3D / Photogrammétrie évoquée dans un autre article. Mais il peut aussi être intéressant de prendre le contre-pied du réalisme, et de prendre le parti de jouer sur le décalage entre réalité et imagination, comme dans cette démonstration.

Notre expertise

Que vous vouliez permettre à vos clients d’essayer vos bijoux en temps réel depuis chez eux ou que vous souhaitiez aider des étudiants à mieux comprendre les implications des liaisons chimiques entre les atomes, ARKit vous permet d’ajouter encore plus de proximité entre vous et vos utilisateurs.

Chez XXII, notre expertise AR nous amène une réflexion à 360° autour des projets de nos clients et nous permet de tirer le meilleur des opportunités offertes par ARKit. Ayant eu accès à la version démo en avant première, nous avons déjà pu tester, développer et maîtriser ARKit.

De l’UX Design à la modélisation 3D en passant par la direction artistique, nous apportons notre savoir-faire à chaque étape !

En bonus, une vidéo de notre responsable Design pour mieux comprendre le monde de l'AR :

Spécial IFA : Les News Tech - Semaine du 04/09/2017 au 10/09/2017

Spécial IFA : Les News Tech - Semaine du 04/09/2017 au 10/09/2017

Les voici les voilà, les news tech de la semaine, par XXII !

SPECIAL IFA

E8_Black_MarbleBackground_2.jpg

Beoplay adopte la tendance des écouteurs sans fils avec son dernier modèle.

https://www.beoplay.com/landingpages/beoplaye8

 
LG-V30-TopArt.jpg

Le dernier téléphone phare de LG mise tout sur la caméra !

https://www.wired.com/story/lgs-v30-more-camera-than-youve-ever-seen-in-a-phone/

 
ibis-blog-image-update.png
 
casques-de-realite-virtuelle-windows-mixed-reality.jpg
 
01-gear-sport-dual.jpg

Les technologies portables se portent bien chez Samsung : découvrez la dernière édition de la Gear S3, la Gear Sport.

https://techcrunch.com/2017/08/30/samsungs-fitness-focused-gear-sport-smartwatch-is-a-smaller-alternative-to-the-giant-gear-s3/ 

 
XYZprinting-TA.jpg

Imprimer votre figurine préférée en 3D et en couleur ? C'est maintenant possible avec la dernière imprimante XYZprinting !

https://www.wired.com/story/xyzprinting-da-vinci-color/

 

 

REALITE VIRTUELLE

HTC-Vive-HMD.jpg

La VR sans les fils : les pré-commandes du TP-Cast sont maintenant disponibles en Europe !

https://www.roadtovr.com/pre-orders-tpcast-wireless-vr-add-now-open-europe/

 

 

billetto-editorial-334676-960x540.jpg

Le premier incubateur VR français va ouvrir ses portes à Paris !

http://bit.ly/2j5ye86

 

 

INTELLIGENCE ARTIFICIELLE

alibaba-smile-pay.jpg

Payer avec un sourire? C’est désormais possible en Chine : KFC propose de tester la dernière trouvaille d’Alibaba !

https://techcrunch.com/2017/09/03/alibaba-debuts-smile-to-pay/

 
watson-ibm.jpeg

Le MIT vient d’annoncer une collaboration long-terme autour de Watson, le bébé d’IBM.

https://www.engadget.com/2017/09/07/ibm-watson-ai-lab-mit/

 
google-camera-street-view.jpg

Ces nouvelles caméras Google pourraient un jour aider votre voiture autonome à se diriger, aussi imprécises soient vos instructions !

https://www.wired.com/story/googles-new-street-view-cameras-will-help-algorithms-index-the-real-world/

 

SCIENCES

fly-perovskite.jpg

Des yeux de mouches aux panneaux solaires il n’y a qu’un pas !

http://news.stanford.edu/2017/08/31/new-solar-cell-inspired-insect-eyes/

 
flip-flop-quantum.jpeg

Ces Australiens pourraient bien avoir trouvé un moyen de casser les prix de production d’ordinateurs quantiques...

https://www.reuters.com/article/us-australia-computing-quantum/australia-researchers-say-find-new-way-to-build-quantum-computers-idUSKCN1BH13X

 
solar-algortihm-blackout.jpeg

Ce nouvel algorithme permettrait à vos panneaux solaires d’alimenter le quartier en énergie vos voisins lors de pannes de courant.

https://www.engadget.com/2017/09/06/your-solar-panels-could-power-the-neighborhood-during-a-blackout/

 

TRANSPORTS

01-id_buzz_concept_6735.jpg
 
Jaguar-AI-Sayer-steering-wheel-849824.jpg

Le futur du volant automobile est là : dites bonjour à Sayer, le volant intelligent de Jaguar.

https://www.cnet.com/roadshow/news/jaguar-land-rover-reveals-steering-wheel-right-out-of-tron/

 
audiev.jpeg

Plutôt rétro ou plutôt futuriste? Jaguar vous laisse choisir avec ses derniers modèles de véhicules électriques.

https://www.engadget.com/2017/09/07/all-jaguars-will-have-electric-drivetrains-in-2020/

 
david-cohen-249124.jpg

Roulement de tambour : les US vont bientôt publier leur recommandations à propos des voitures autonomes !

https://www.engadget.com/2017/09/06/reuters-self-driving-car-guidelines-reveal/

 
flying-lilium-car.jpg

ARCore et ARKit : Les coulisses de l'AR

ARCore et ARKit : Les coulisses de l'AR

Ces derniers mois ont été riches en émotions dans le “petit” monde de la réalité augmentée. Entre les dépôts de brevets de Facebook et Magic Leap pour des lunettes AR, l’annonce d’Apple sur la sortie d’ARKit en Juin, et l’annonce d’ARCore il y a quelques jours par Google, on peut se sentir facilement perdu.

En effet, si les vidéos utilisant les tout derniers SDK (software development kit) d’Apple et Google sont absolument bluffantes, les technologies qui sont derrière sont finalement utilisées depuis un bon moment dans le milieu de l’AR.

Alors pourquoi les dernières annonces des deux géants américains impressionnent autant ? Petit tour à l’intérieur des coulisses de l’AR.

couvarkitcoulisse.png

Se situer dans l’espace

A la base de bien des applications AR se trouve une problématique de vision par ordinateur appelée SLAM (Simultaneous Localisation And Mapping). Lorsqu’un système est dit “SLAM”, il est capable d’évoluer à l’intérieur d’un environnement inconnu tout en sachant se positionner au sein de celui-ci. Grâce à des images de son entourage proche traitées comme des nuages de points, le système peut analyser son environnement sous forme de différents plans plus ou moins proches ou inclinés. C’est, entre autre, cette « compréhension » de la configuration des scènes visualisées qui permet de déterminer quels sont les espaces « libres » pour l’intégration d’éléments animés ou non dans le réel via des appareils comme votre smartphone ou votre tablette.

 Extrait de la présentation d'ARKit par Apple.

Extrait de la présentation d'ARKit par Apple.

Retranscrire la 3D

Pour arriver à donner la notion de 3D à un élément en AR, deux possibilités majeures s’offrent à vous : le VIO ou l’utilisation de l’IMU de votre téléphone.

Le VIO (Visual Inertial Odometry) permet d’estimer à la fois la position et l’orientation d’un système dans un repère en 3 dimensions en se basant sur des informations visuelles en temps réel.

 Les instruments de mesure de votre téléphone lui permettent de vous positionner dans l'espace (Photo : Robert Penaloza)

Les instruments de mesure de votre téléphone lui permettent de vous positionner dans l'espace (Photo : Robert Penaloza)

Les mesures effectuées par le système inertiel de votre téléphone (le gyroscope,  l’accéléromètre, et la boussole), ou Inertial Measurement Unit, permettent également d’obtenir des indications sur la position de celui-ci dans l’espace.

Ainsi, un téléphone, même sans être muni de caméra spéciale comme la caméra infrarouge intégrée au téléphone Tango, est capable de déterminer la position de l’appareil dans son environnement réel et virtuel et de retransmettre en conséquence l’orientation correcte de l’image projetée en AR.

L’illusion du réel

Rien de bien nouveau sous le soleil donc. Là où nos deux géants « révolutionnent » le monde de l’AR avec leurs SDK, c’est dans le calcul des erreurs liées à ces technologies et la gestion des textures et des lumières, et ce sur des supports n’étant pas initialement pensés pour de l’AR.

En effet, les techniques présentées précédemment sont très sensibles aux erreurs. Les mesures visuelles et optiques sont effectuées à la même cadence que le rafraîchissement de la caméra, accumulant les erreurs avec la distance parcourue et la durée d’utilisation. Réussir à fournir des mesures dont le facteur d’erreur est suffisamment faible pour ne pas affecter la qualité de l’intégration d’éléments en AR est un réel progrès. Cette précision permet de mieux gérer l’incrustation d'éléments virtuels dans notre environnement, d’effectuer des mesures comme dans cette démonstration célèbre d’application faite avec ARKit. La gestion des jeux de lumières est également meilleure, ce qui donne une illusion de réel encore plus forte.

 L'intégration d'éléments virtuels dans des environnements réels est de plus en plus réaliste. (Démonstration d'ARCore)

L'intégration d'éléments virtuels dans des environnements réels est de plus en plus réaliste. (Démonstration d'ARCore)

Une nouvelle ère pour l’AR

L’exploitation des précédents outils et techniques a récemment donné des résultats assez fous. Néanmoins, ces performances nécessitent des bases matérielles solides, et une puissance de calcul non négligeable. Jusqu’à présent, les outils de création et de visualisation de contenu AR étaient tributaires de matériel dédié, comme l’Hololens, ou encore le Tango. La problématique de la présence de traqueur ou soumis à des contraintes techniques comme l’installation de marqueur visuel dans l’environnement, comme c’est le cas avec le SDK de Qualcomm Vuforia, qui nécessite le réglage de traqueur sur une scène pour pouvoir intégrer des objets virtuels dans le réel.
Hormis Snapchat, qui a réussi à rendre l’AR accessible à tous via des appareils déjà bien répandus auprès du grand public, l’AR restait cantonnée à une utilisation très restreinte.

Ces derniers mois, le calendrier des annonces de SDK démocratisant le développement d’applications AR s’est accéléré. Facebook a discrètement lancé la tendance en Avril 2017 durant la F8, avec son annonce d’AR Studio, une plateforme (pas encore ouverte aux développeurs à ce jour) similaire à l’ARCore et l’ARKit. Mais c’est finalement la sortie d’ARKit en Juin 2017 qui a fait le plus de bruit, suite au rachat en 2015 de Metaio par Apple, startup allemande leader de l’AR et concurrent direct de Vuforia.
Toutes ces nouveautés, remarquées ou non, permettent d’inaugurer une nouvelle ère pour l’AR. De plus en plus de téléphones non-spécialisés vont pouvoir supporter des applications en AR, qui vont ensuite être utilisées un peu partout sans avoir à définir de marqueurs spécifiques en amont.

Si le parc des téléphones compatibles avec ces technologies reste encore assez élitiste, tout cela augure tout de même un beau futur pour le monde de l’AR.