• Mobile
  • Conférence
  • 55 min

Kotlin, Compose & XR: let's enter the matrix 🕶️

  • Date jeudi
  • Horaire 14h00 à 14h55
  • Salle Amphi E

Description

Le monde des interfaces utilisateur entre dans une nouvelle dimension. Comme Neo face à la pilule rouge, nous devons faire un choix : rester dans le confort rassurant de la 2D ou entrer dans la matrix de l'XR. Mais comment s'affranchir des limites de l'écran sans renoncer aux outils que nous maîtrisons? Cette session vous révélera les enseignements tirés du prototypage et de la migration d'une application Android existante vers Android XR avec Jetpack Compose pour XR. Nous ira au cœur du code pour découvrir comment architecturer votre application et comment utiliser le composant Subspace, qui la gateway vers le monde XR, et comment exploiter les nouveaux composants tels que SpatialPanel, SpatialRow ou SpatialColumn pour construire vos interfaces XR. À l'issue de cette session, vous aurez un aperçu complet pour vos premiers pas en XR, des patterns éprouvés pour spatialiser vos applications Compose, et surtout, tout le nécessaire pour anticiper les obstacles qui vous attendent. Pilule bleue ou pilule rouge ? Il est temps de voir jusqu'où va le terrier du lapin XR 🕶️

Orateur·ices

Julien Salvi

With over a decade in the Android world, I’ve lived the fast-paced startup life in California before returning to France. Today, I’m leading and managing the Android team at Aircall, where we're building the best phone system for modern businesses. Beyond Android, I’m passionate about backend development with Kotlin and exploring the possibilities of AR/VR. In 2021, I was honored to become an Android GDE—continuing my mission to share knowledge and grow alongside the amazing Android community. Outside of work, you’ll find me traveling the globe or on the hunt for the perfect IPA.

Actions rapides


Les sessions futures sur le même thème

    • Mobile
    • Quicky

    Concevoir des jeux accessibles avec Flutter et Flame

    Swiper vite, taper en mode JIT, réagir en quelques millisecondes (Oh, Schumacher!). On conçoit souvent nos jeux autour de gestes précis et avec un gameplay peu ou pas accessible. Alors qu'un geste, c'est juste une méthode d'entrée : ce n'est pas le gameplay. Et quand on confond les deux, on finit par exclure des joueurs sans même s'en rendre compte ! L'idée de ce talk, c'est de penser autrement : partir des intentions du joueur (attaquer, explorer, interagir) plutôt que du geste qu'il doit faire pour y arriver. Une fois qu'on sépare l'intention de l'input, on peut proposer plusieurs façons de jouer. L'accessibilité devient un choix de design, pas un patch qu'on colle à la fin. Pour illustrer tout ça, j'ai construit Echo Quest, un petit "RPG" narratif avec Flutter et Flame. Ce n'est pas le jeu de l'année mais la démarche est expérimentale ! On y explore une forêt, on résout des énigmes, on se bat au tour par tour. Et surtout, on peut y jouer au tactile, au clavier, ou à la voix : le jeu s'en fiche, il reçoit la même intention. On verra ensemble comment : * structurer son gameplay autour d'intentions plutôt que d'inputs * brancher plusieurs modes de contrôle sur la même logique de jeu * utiliser ce que Flutter nous donne déjà (Semantics, focus, UI adaptative) * tirer parti de l'architecture de Flame (composants, overlays) pour mixer game loop et widgets Flutter accessibles * synthétiser de l'audio spatial avec Web Audio API pour naviguer sans écran * ajuster le rythme et la difficulté pour que chacun puisse jouer à sa façon L'accessibilité dans le jeu vidéo, c'est souvent le truc qu'on ajoute "si on a le temps". Vous l'aurez compris, je ne suis pas dev de jeu vidéo... je suis une dev mobile, concernée par l'accessibilité qui s'est laissé tenté par les jeux vidéos en 2D. Ce talk propose de montrer l'accessibilité autrement, à travers un jeu.

    Vendredi 8h30 à 9h25 - Amphi B