- Mobile
- Conférence
- 55 min
Kotlin, Compose & XR: let's enter the matrix 🕶️
Date jeudi
Horaire 14h00 à 14h55
Salle Amphi E
Description
Le monde des interfaces utilisateur entre dans une nouvelle dimension. Comme Neo face à la pilule rouge, nous devons faire un choix : rester dans le confort rassurant de la 2D ou entrer dans la matrix de l'XR. Mais comment s'affranchir des limites de l'écran sans renoncer aux outils que nous maîtrisons? Cette session vous révélera les enseignements tirés du prototypage et de la migration d'une application Android existante vers Android XR avec Jetpack Compose pour XR. Nous ira au cœur du code pour découvrir comment architecturer votre application et comment utiliser le composant Subspace, qui la gateway vers le monde XR, et comment exploiter les nouveaux composants tels que SpatialPanel, SpatialRow ou SpatialColumn pour construire vos interfaces XR. À l'issue de cette session, vous aurez un aperçu complet pour vos premiers pas en XR, des patterns éprouvés pour spatialiser vos applications Compose, et surtout, tout le nécessaire pour anticiper les obstacles qui vous attendent. Pilule bleue ou pilule rouge ? Il est temps de voir jusqu'où va le terrier du lapin XR 🕶️
Orateur·ices
Julien Salvi
With over a decade in the Android world, I’ve lived the fast-paced startup life in California before returning to France. Today, I’m leading and managing the Android team at Aircall, where we're building the best phone system for modern businesses. Beyond Android, I’m passionate about backend development with Kotlin and exploring the possibilities of AR/VR. In 2021, I was honored to become an Android GDE—continuing my mission to share knowledge and grow alongside the amazing Android community. Outside of work, you’ll find me traveling the globe or on the hunt for the perfect IPA.
Actions rapides
Les sessions futures sur le même thème
- Mobile
- Quicky
Concevoir des jeux accessibles avec Flutter et Flame
Swiper vite, taper en mode JIT, réagir en quelques millisecondes (Oh, Schumacher!). On conçoit souvent nos jeux autour de gestes précis et avec un gameplay peu ou pas accessible. Alors qu'un geste, c'est juste une méthode d'entrée : ce n'est pas le gameplay. Et quand on confond les deux, on finit par exclure des joueurs sans même s'en rendre compte ! L'idée de ce talk, c'est de penser autrement : partir des intentions du joueur (attaquer, explorer, interagir) plutôt que du geste qu'il doit faire pour y arriver. Une fois qu'on sépare l'intention de l'input, on peut proposer plusieurs façons de jouer. L'accessibilité devient un choix de design, pas un patch qu'on colle à la fin. Pour illustrer tout ça, j'ai construit Echo Quest, un petit "RPG" narratif avec Flutter et Flame. Ce n'est pas le jeu de l'année mais la démarche est expérimentale ! On y explore une forêt, on résout des énigmes, on se bat au tour par tour. Et surtout, on peut y jouer au tactile, au clavier, ou à la voix : le jeu s'en fiche, il reçoit la même intention. On verra ensemble comment : * structurer son gameplay autour d'intentions plutôt que d'inputs * brancher plusieurs modes de contrôle sur la même logique de jeu * utiliser ce que Flutter nous donne déjà (Semantics, focus, UI adaptative) * tirer parti de l'architecture de Flame (composants, overlays) pour mixer game loop et widgets Flutter accessibles * synthétiser de l'audio spatial avec Web Audio API pour naviguer sans écran * ajuster le rythme et la difficulté pour que chacun puisse jouer à sa façon L'accessibilité dans le jeu vidéo, c'est souvent le truc qu'on ajoute "si on a le temps". Vous l'aurez compris, je ne suis pas dev de jeu vidéo... je suis une dev mobile, concernée par l'accessibilité qui s'est laissé tenté par les jeux vidéos en 2D. Ce talk propose de montrer l'accessibilité autrement, à travers un jeu.
Vendredi 8h30 à 9h25 - Amphi B