Aller au contenu
Korben, roi d’internet, logo bébé avec des lunettes en mode thug life

Vous aimez les cryptomonnaies ❤️ Korben.info, alors cliquez ici pour me soutenir ! Merci !

VASA-1 est un nouveau framework qui permet de générer des visages parlants ultra-réalistes en temps réel ! En gros, vous balancez une simple photo à cette IA, ainsi qu’un petit clip audio, et bim ! Elle vous pond une vidéo d’un visage qui parle, avec une synchronisation de la bouche nickel chrome, des expressions faciales hyper naturelles et des mouvements de tête très fluides. C’est hyper bluffant !

Les chercheurs de Microsoft ont réussi ce tour de force en combinant plusieurs techniques de pointe en deep learning. Ils ont d’abord créé un espace latent expressif et bien organisé pour représenter les visages humains. Ça permet de générer de nouveaux visages variés, qui restent cohérents avec les données existantes. Ensuite, ils ont entraîné un modèle de génération de dynamiques faciales et de mouvements de tête, appelé le Diffusion Transformer, pour générer les mouvements à partir de l’audio et d’autres signaux de contrôle.

Et le résultat est juste époustouflant. On a l’impression de voir de vraies personnes qui parlent, avec toutes les nuances et les subtilités des expressions faciales. Les lèvres bougent parfaitement en rythme avec les paroles, les yeux clignent et regardent naturellement, les sourcils se lèvent et se froncent…

En plus de ça, VASA-1 peut générer des vidéos en haute résolution (512×512) à une cadence élevée, jusqu’à 40 images par seconde, avec une latence de démarrage négligeable. Autant dire que c’est le graal pour toutes les applications qui nécessitent des avatars parlants réalistes. On peut imaginer des assistants virtuels avec lesquels on pourrait interagir de manière super naturelle, des personnages de jeux vidéo encore plus crédibles et attachants, des outils pédagogiques révolutionnaires pour apprendre les langues ou d’autres matières, des thérapies innovantes utilisant des avatars pour aider les patients… etc etc..

En plus de pouvoir contrôler la direction du regard, la distance de la tête et même les émotions du visage généré, VASA-1 est capable de gérer des entrées qui sortent complètement de son domaine d’entraînement comme des photos artistiques, du chant, d’autres langues…etc.

Bon, évidemment, il reste encore quelques limitations. Par exemple, le modèle ne gère que le haut du corps et ne prend pas en compte les éléments non rigides comme les cheveux ou les vêtements. De plus, même si les visages générés semblent très réalistes, ils ne peuvent pas encore imiter parfaitement l’apparence et les mouvements d’une vraie personne mais les chercheurs comptent bien continuer à l’améliorer pour qu’il soit encore plus versatile et expressif.

En attendant, je vous invite à checker leur page de démo pour voir cette merveille en action. C’est juste hallucinant ! Par contre, vu les problèmes éthiques que ça pourrait poser du style usurpation d’identité, fake news et compagnie, et connaissans Microsoft, je pense que VASA-1 ne sera pas testable par tous bientôt malheureusement. Mais je peux me tromper…



Les grands modèles de langage (LLM), comme le célèbre GPT-4 d’OpenAI, font des prouesses en termes de génération de texte, de code et de résolution de problèmes. Perso, je ne peux plus m’en passer, surtout quand je code. Mais ces avancées spectaculaires de l’IA pourraient avoir un côté obscur : la capacité à exploiter des vulnérabilités critiques.

C’est ce que révèle une étude de chercheurs de l’Université d’Illinois à Urbana-Champaign, qui ont collecté un ensemble de 15 vulnérabilités 0day bien réelles, certaines classées comme critiques dans la base de données CVE et le constat est sans appel. Lorsqu’on lui fournit la description CVE, GPT-4 parvient à concevoir des attaques fonctionnelles pour 87% de ces failles ! En comparaison, GPT-3.5, les modèles open source (OpenHermes-2.5-Mistral-7B, Llama-2 Chat…) et même les scanners de vulnérabilités comme ZAP ou Metasploit échouent lamentablement avec un taux de 0%.

Heureusement, sans la description CVE, les performances de GPT-4 chutent à 7% de réussite. Il est donc bien meilleur pour exploiter des failles connues que pour les débusquer lui-même. Ouf !

Mais quand même, ça fait froid dans le dos… Imaginez ce qu’on pourrait faire avec un agent IA qui serait capable de se balader sur la toile pour mener des attaques complexes de manière autonome. Accès root à des serveurs, exécution de code arbitraire à distance, exfiltration de données confidentielles… Tout devient possible et à portée de n’importe quel script kiddie un peu motivé.

Et le pire, c’est que c’est déjà rentable puisque les chercheurs estiment qu’utiliser un agent LLM pour exploiter des failles coûterait 2,8 fois moins cher que de la main-d’œuvre cyber-criminelle. Sans parler de la scalabilité de ce type d’attaques par rapport à des humains qui ont des limites.

Alors concrètement, qu’est ce qu’on peut faire contre ça ? Et bien, rien de nouveau, c’est comme d’hab, à savoir :

  • Patcher encore plus vite les vulnérabilités critiques, en priorité les « 0day » qui menacent les systèmes en prod
  • Monitorer en continu l’émergence de nouvelles vulnérabilités et signatures d’attaques
  • Mettre en place des mécanismes de détection et réponse aux incidents basés sur l’IA pour contrer le feu par le feu
  • Sensibiliser les utilisateurs aux risques et aux bonnes pratiques de « cyber-hygiène »
  • Repenser l’architecture de sécurité en adoptant une approche « zero trust » et en segmentant au maximum
  • Investir dans la recherche et le développement en cybersécurité pour garder un coup d’avance

Les fournisseurs de LLM comme OpenAI ont aussi un rôle à jouer en mettant en place des garde-fous et des mécanismes de contrôle stricts sur leurs modèles. La bonne nouvelle, c’est que les auteurs de l’étude les ont avertis et ces derniers ont demandé de ne pas rendre publics les prompts utilisés dans l’étude, au moins le temps qu’ils « corrigent » leur IA.

Source


Un surdoué du bidouillage nommé Ryan Miceli, alias « grimdoomer » sur GitHub, vient de réussir un truc de malade : faire tourner Halo 2 en 720p sur une Xbox première génération ! Oui, 720p sur la vénérable console de Microsoft sortie en 2001, c’est un bel exploit.

Mais alors, comment ce bon vieux Ryan a-t-il réussi ce tour de passe-passe ? Eh bien figurez-vous qu’il a littéralement mis les mains dans le cambouis pour effectuer des modifications matérielles, dans le kernel, et même sur le jeu lui-même. Un travail de titan !

Pour entrer un peu plus dans les détails techniques, sachez que Miceli a installé un câble IDE 80 broches pour connecter le disque dur de la Xbox à un PCB custom qui supporte des vitesses de transfert plus rapides. Résultat, des temps de chargement optimisés et des perfs globalement boostées. Côté kernel, notre modder de génie a optimisé la gestion de la mémoire pour augmenter la quantité de RAM disponible pour le jeu. Et ce n’est pas tout ! Il a aussi ajouté le support du triple buffering pour un rendu plus fluide, et même des sliders pour régler le FOV.

Faut quand même se rappeler qu’à sa sortie, Halo 2 faisait déjà cracher les poumons de la console alors l’idée de le faire tourner en 720p, ça relève presque de la science-fiction. Il a notamment exploité une faille dans le système de mémoire partagée entre le CPU et le GPU et en bidouillant le code, il a réussi à gonfler la mémoire vidéo. Et même si le framerate trinque un peu à cause de cet overclocking, on est quand même en 720p au final.

Et pour ceux qui voudraient (presque) la même chose sur leur XBox mais qui n’ont pas envie de sortir le fer à souder, Ryan a pensé à tout. Certes, pour obtenir le Graal des 720p, faut mettre les mains dans les composants et charcuter un peu la bête, mais une bonne partie des améliorations, comme la correction du scaling en 480p ou les options pour régler le FOV, fonctionnent sur une console stock !

Bravo à Mister Miceli, un vrai Master Chief !

Source


Boston Dynamics, le célèbre fabricant américain de robots, va vous épater une fois de plus avec sa dernière prouesse technologique : Atlas, le robot humanoïde qui passe en mode « sans fil » si je puis dire ! Eh oui, ce grand gaillard mécanique qui nous avait déjà bluffé par ses prouesses physiques fait peau neuve et troque ses câbles encombrants contre une batterie bien pratique. Fini le régime « branché sur secteur », Atlas peut maintenant se la jouer nomade et partir à l’aventure sans sa laisse, en abandonnant son système hydraulique pour un système 100% électrique.

Vous l’aurez compris parce que vous êtes super malins, limite HPI je pense, l’idée c’est de le rendre plus autonome et plus mobile afin qu’il puisse se faufiler dans des endroits inaccessibles, intervenir sur des terrains accidentés, et même prêter main forte lors de missions de sauvetage.

Grâce à ses capteurs et ses algorithmes de pointe, il peut analyser son environnement en temps réel, esquiver les obstacles tel un ninja, et même se relever tout seul comme un grand s’il se prend une gamelle. Un vrai pro de la gymnastique quoiqu’un peu flippant ! Équipé de capteurs comme des caméras, du lidar, du sonar et de l’imagerie thermique, il est ainsi capable de collecter des données dans différents environnements industriels.

Mais le plus fort, c’est qu’Atlas apprend à une vitesse affolante. Ses créateurs lui font suivre un entraînement intensif digne des meilleurs athlètes : courses, sauts, pirouettes… leur robot est soumis à un vrai parcours du combattant et le résultat est là puisqu’à chaque nouvelle vidéo, on reste scotché devant les prouesses de ce prodige mécanique. Grâce à des techniques de vision par ordinateur et d’apprentissage automatique, il peut détecter des objets, reconnaître des formes et suivre des mouvements.

Boston Dynamics a aussi lancé son propre système d’exploitation pour robots, baptisé Orbit. C’est la tour de contrôle qui permet de gérer toute une flotte de robots, de créer des jumeaux numériques des sites, pour orchestrer une robotisation complète d’un entrepôt ou d’une usine par exemple. Pour l’instant, seul Spot y a droit, mais Atlas et Stretch devraient bientôt être de la partie.

Pour le plaisir, je vous remets aussi la vidéo très impressionnante de l’ancienne version d’Atlas qui lui est hydraulique :

Évidemment, tout ça soulève pas mal de questions sur l’avenir de nos amis les robots. Est-ce qu’un jour Atlas et ses copains remplaceront les humains sur les chantiers ou dans les usines ? Est-ce qu’ils viendront nous sauver des décombres tel Superman quand un bâtiment s’effondrera ? Une chose est sûre, Boston Dynamics ne compte pas s’arrêter en si bon chemin. L’objectif c’est de l’intégrer avec les autres systèmes de l’entreprise comme des ERP pour améliorer encore un peu plus ses fonctionnalités et lui fournir des tas de données en temps réel.

Actuellement, la société américaine planche sur une version encore plus perfectionnée d’Atlas, avec une intelligence artificielle dernier cri et une autonomie rallongée et à terme, ce robot pourrait bien devenir le nouveau chouchou des industriels et des services de secours du monde entier même s’il faut garder à l’esprit qu’il ne peut pas encore tout faire car certaines zones confinées ou difficiles d’accès peuvent nécessiter d’autres méthodes d’inspection en complément.

Dommage, je l’aurais bien amené dans la forêt avec moi pour couper du bois. M’enfin, rassurez-vous, même avec toutes ces améliorations, Atlas n’est pas près de piquer le boulot de Terminator. Enfin, espérons-le ! En attendant, on ne peut que saluer le génie des ingénieurs de Boston Dynamics, qui repoussent sans cesse les limites de la robotique.

Et si vous voulez en savoir plus sur les dernières avancées d’Atlas, je vous invite à consulter le blog officiel de Boston Dynamics qui détaille les dessous de cette nouvelle version sur batterie.

Source


Ah les acouphènes, cette bande-son de l’enfer qui nous pourrit la vie ! Perso, j’ai parfois un sifflement strident qui me vrille les tympans et pas de bouton « mute » pour le stopper. Alors ça va, ça m’arrive assez rarement mais si vous faites partie des 8 millions de français à subir ce calvaire, j’ai une bonne nouvelle pour vous.

Figurez-vous que la FDA (l’équivalent américain de notre bon vieille ANSM) a donné son feu vert à un appareil révolutionnaire : le Lenire.

OK, le nom fait un peu penser à un Pokemon, mais ce truc au look tout droit d’un film de science-fiction des années 80 dispose d’un embout buccal bardé d’électrodes en acier inoxydable que vous placez dans votre bouche et qui va littéralement vous envoyer de l’électricité dans la langue !

Wow wow wow, on se calme, c’est pas la chaise électrique non plus hein ^^.

En fait, ça envoie des mini stimulations pour « chatouiller » votre langue, comme si une armée de petites fourmis faisait la fiesta sur votre muscle lingual. Pendant ce temps-là, vous avez un casque sur les oreilles qui diffuse des sons aussi apaisants que le ressac sur une plage de sable blanc et le combo fait que les acouphènes se réduisent. Dans une étude clinique portant sur 326 patients, 84% des participants ont constaté une amélioration significative après 12 semaines d’utilisation du Lenire. C’est quand même un sacré bond en avant quand on sait qu’avant, y avait pas grand chose pour soulager les gens.

Alors comment ça fonctionne ?

Et bien en gros, votre cerveau, c’est comme un projecteur qui est toujours braqué sur ce qui est important. Quand vous avez des acouphènes, c’est comme si le projecteur était bloqué sur le bruit parasite en mode « alerte rouge, défcon 1, on va tous mourir !« . Du coup, impossible de penser à autre chose, ça vous pourrit le ciboulot. Eh ben figurez-vous que cet appareil, c’est le copain qui viendrait vous secouer en mode « hey, regarde plutôt ça, c’est carrément plus intéressant !« . En stimulant votre langue et vos oreilles simultanément, il force donc votre cerveau à changer de focus. Résultat, votre projecteur mental n’est plus obnubilé par les acouphènes !

Après, c’est pas donné… comptez dans les 4000 balles pour vous offrir cette petite merveille. Mais pour les gens qui ont les oreilles qui sifflent à longueur de journée, on est prêt à tout pour retrouver un peu de répit, même à vendre un rein au marché noir (non, je déconne, faites pas !). Après y’a surement moyen de faire un équivalent DIY avec une pile et un casque à réduction de bruit, j’sais pas…

Bref, y’a de l’espoir pour tous les acouphéniques en galère et c’est ce que je voulais partager avec vous aujourd’hui ;-).

Source