Ga offline met de app Player FM !
LCC 302 - Amour, Gloire et OpenAI
Manage episode 386152346 series 25488
Dans cet épisode, Emmanuel, Guillaume et Katia abordent les nouveautés Java, le lancement du langage Misty par Douglas Crockford, l’arrivée de WasmGC dans Chrome, la sortie de Spring Framework 6.1, des évolutions dans les bibliothèques comme Vert.x 4.5, et des conseils sur la création de langages de programmation. L’épisode couvre également des actualités dans les domaines de l’infrastructure avec le premier ordinateur cloud commercial par Oxide, des annonces sur les frameworks web comme Angular v17, des réflexions sur les architectures monolithiques versus microservices, et sans oublier le soap Opéra du moins de novembre avec OpenAI en vedette.
Enregistré le 23 novembre 2023
Téléchargement de l’épisode LesCastCodeurs-Episode-302.mp3
News LangagesRecap Javaiste https://www.infoq.com/news/2023/10/java-news-roundup-oct09-2023
- la JEP 454 sur l’appel a la memoire et les API dites natives passera en target pour JDK 22 avec une façon d’ajouter les appels de méthodes restreintes sans le flag --enable-native-access (via un manifeste dans le JAR)
- JDK 22 prévu pour mars 2024
- Spring Framework 6.1 est sorti (RC2)
- Tomcat a quelques CVE donc mettez à jour
Douglas Crockford, le papa de JSON, sort un nouveau langage dénommé Misty https://www.crockford.com/misty/
- Utilise des caractères unicodes pour définir des chaînes de caractères avec des chevrons, ou pour les opérateurs de base (comparison, and/or)
- Support de programmation concurrente avec les actors
WasmGC arrive dans Chrome, par l’intermédiaire de v8 https://v8.dev/blog/wasm-gc-porting
- historiquement il fallait compiler le port du langage lui meme (et donc son GC)
- Maintenant on peut compiler le code (java) dans des primitives Wasm et WasmGC
- Java python et co ont des VM qui sont compilées pour toutes les architecture cibles (ARM, x86 etc) y compris le JIT, AOT
- donc on peut définir comme backend WASM lui meme, c’est l’approche classique
- WasmGC définit des structs et des array avec des champs dans lesquels on peut créer des instances, lire/écrire les champs, caster dans d’autres types et ces objects sont managés par WasmGC lui meme. on a un système de type du coup et des relations entre ces types
- Donc on représenterait les objets Java en objets Wasm
- avantage et inconvenient des deux approches
- tous les codes de management d’objets ne sont plus nécessaires (y compris malloc) -> gain memoire
- en mode GC dans le langage les liens object langage <-> objets Wasm sont inefficaces car le lien langage -> wasm définissent l’instance entière Wasm, donc des gros cycles d’objets ne sont pas GCed
- Wasm sandbox empêche d’inspecter la stack et d’éliminer des objets plus efficacement, et il n’y a pas d’API pour aider donc seul WasmGC peut utiliser cet avantage.
- un seul GC a des avantages: meilleure gestion de la pression memoire
- mais on réutilise le GC du web (genre V8) vs celui de Java. (c’est moins un problème pour les autres langages avec des gc moins sophistiqués)
- fragmentation memoire, est plus proéminent quand on a des modules de type C qui peur garder des gros blocs memoire “quasi vide” (opaque). c’est managé plus finement en WasmGC
- Sémantiques de langage est plus dur a achevé vu qu’on map en concepts WasmGC, il y a de la transformation.
- sémantiques chaine de caractère, nombres, etc peuvent être un peu ajusté
- un port utilisant WasmGC n’est pas une réécriture de tout mais un gros morceau de la VM du langage cible est a réécrire
- WasmGC peut optimiser comme les patterns en JVM mais en WasmMVP c’est la toolchain avant qui fait le travail d’optimisation (e.g. LLVM)
- donc avec WasmGC, la toolchain fera les optimisations de langage et WasmGC fera les optimisations low level (inlining, constant propagation, dead code elimination)
- puis d’autres optimisation specific a WasmGC comme les escape analysis,
- et ils parlent d’optimisations dans V8 pour approcher les appels dynamique a la Java (pas défini a la compilation)
Ecrire un langage de programmation… ça prend du temps… beaucoup de temps https://yorickpeterse.com/articles/a-decade-of-developing-a-programming-language/
- Évitez le gradual typing
- Évitez le boostrapping de votre compilateur
- Évitez d’écrire votre propre générateur de code, linker, etc
- Évitez de tergiverser trop longtemps sur la syntaxe
- La prise en charge multiplateforme est un défi
- Les livres sur les compilateurs compilateurs ne valent pas l’argent que vous dépenserez dessus
- Faire grandir et évoluer un langage de programmation est difficile
- La meilleure suite de tests est une application réelle
- Ne privilégiez pas les performances sur les fonctionnalités.
Spring Boot rajoute le hot reload des certificats SSL pour embedded Netty et Tomcat https://spring.io/blog/2023/11/07/ssl-hot-reload-in-spring-boot-3-2-0
- utilisez reload-on-update: true
- et écoute les changements de fichiers
- pas mal dans les déploiements non immuables (pas comme kubernetes)
VertX 4.5 est sorti https://vertx.io/blog/whats-new-in-vert-x-4-5/
- support des thread virtuels qui permet d’écrire le code synchrone pour des cas complexes et utiliser les thread locaux dans ces cas la. Cela ne remplacement pas le code de process des événements
- le code put faire des future await qui ne bloqueront pas le thread principal
- connection SQL dynamique: quand le host change dynamiquement dans l’application
- support des proxies de niveau 7 pour les clients SQL
- rotation certificats a chaud
- des builders (HTTP, SQL connection)
- extensions pour utiliser les coroutines kotlin
Integration declarative de Langchain4j dans Quarkus https://quarkus.io/blog/quarkus-meets-langchain4j/
InfrastructureOxide sort le premier ordinateur cloud disponible commercialement https://oxide.computer/blog/the-cloud-computer
- pas facile de séparer le buzz de la réalité
- on dirait un ordi purpose built avec l’efficience et le cote compact en tete
- ils poussent contre le mode location uniquement des cloud providers
- en gros inspire des cloud providers qui construisent leurs propres ordis (et meme CPUs maintenant !)
- construit le hardware et le software en co optimisation
- c’est un rack entier, peu de bruit de ventilateur
- pas de cable (seul E/S du rack)
- donc ils ont leurs propres switch
- compliqué de différencier l’avantage du désavantage
Les leçons tirées de 20 de Site Reliability Engineering par Google https://sre.google/resources/practices-and-processes/twenty-years-of-sre-lessons-learned/
- Le risque d’une mitigation doit être proportionné à la gravité de la panne
- Les mécanismes de récupération doivent être entièrement testés avant une urgence
- Canarisez tous les changements
- Avoir un “gros bouton rouge”
- Les tests unitaires ne suffisent pas, des tests d’intégration sont également nécessaires
- CANAUX DE COMMUNICATION ! ET CANAUX DE SECOURS !! ET DES SAUVEGARDES POUR CES CANAUX DE SECOURS !!!
- Modes de dégradation intentionnelle des performances
- Tester la résilience aux catastrophes
- Automatisez vos mitigations
- Réduisez le temps entre les déploiements, afin de diminuer la probabilité que le déploiement tourne mal
- Une seule version matérielle globale est un point de défaillance unique
Karpenter une evolution de autoscaler pour les cluster kubernetes https://blog.ippon.fr/2023/11/07/mettez-a-lechelle-vos-clusters-kubernetes-de-maniere-efficace-et-faites-des-economies-avec-karpenter/
- fonctionne uniquement pour AWS aujourd’hui et un projet AWS donc a voir la portabilité
- permet d’ajouter ou de supprimer des noeuds au cluster kubernetes en dynamique pour right sizer ses clusters
- bypass les API kube pour la creation d’instance et utilise les APIs AWS EC2 directement
- permet des noeuds hétérogènes (pas homogène comme autoscaler)
- et se right size rapidement (e.g. 30s pour éteindre un noeud)
- besoin d’applis cloud native par elles vont être baladées
Deno! https://www.infoq.com/news/2023/10/deno-jupyter-integration
- Dev experience, jupyter notebook integration
- Améliorations sur Visual Studio Code extension (compatible avec NodeJS)
- Exec native sur Jupyter de javascript et typescript permet d’effectuer des analyses de données, construire des modèles d’apprentissage automatique et générer des rapports interactifs avec Deno
- Visualisation dynamiques avec D3 dans le notebook
- Connection à Deno KV
- Plusieurs améliorations sur le testing, APIs etc
Lancement du nouveau site angular.dev et de la version v17 du framework https://blog.angular.io/announcing-angular-dev-1e1205fa3039
- nouvelle doc, nouveaux tutoriels, et bac à sable
- un nouveau logo aussi
- mais cette version v17 est la continuation d’Angular, pas une toute nouvelle version qui casse tout
- le nouveau “control flow” devient GA, et propose des conditionals (if, else…) https://blog.angular.io/meet-angulars-new-control-flow-a02c6eee7843
- le blog d’Angular mentionne les nouveautés, au-delà du revamp de la documentation https://blog.angular.io/introducing-angular-v17-4d7033312e4b
- Cédric Exbrayat mets les mains dans le cambouis et couvre les nouveautés techniques dans le blog des Ninja Squad https://blog.ninja-squad.com/
- Et les nouveautés aussi du côté de la CLI https://blog.ninja-squad.com/2023/11/09/angular-cli-17.0/
- beaucoup de focus sur l’apprentissage et la manipulation concrete avec le bac a sable et les tutoriaux
- le site lui meme est maintenant open source (il ne l’était pas avant?)
- le logo est nouveau et adaptable par les communautés
Il est possible de signer et notariser des applications pour macOS sur des machines non-Apple https://gregoryszorc.com/blog/2022/08/08/achieving-a-completely-open-source-implementation-of-apple-code-signing-and-notarization/
- implémenté en Rust
- pratique pour son pipeline CI/CD basé sur Linux
- a priori, il y a des outils similaires pour le monde Windows, qui permet de signer sur une machine non-Windows https://github.com/mtrojnar/osslsigncode
Lors de son Github Universe, Copilot fait le show ! https://github.blog/2023-11-08-universe-2023-copilot-transforms-github-into-the-ai-powered-developer-platform/
- Copilot Chat sera GA en décembre, il utilise GPT4, il permet de guider le développeur, de générer du code, de détecter des erreurs et aide à les corriger, d’expliquer le code
- Intégration à venir de Copilot Chat dans les IDEs de JetBrains
- Copilot Chat va être intégrer sur github.com et dans l’appli mobile aussi
- Introduction de GitHub Copilot Enterprise pour les sociétés, qui permettra de spécialisé le modèle sur le code de l’entreprise
- Intégration de Copilot ans Workspace, donc quand on voudra adresser un bug, créer un pull request, Copilot pourra nous aider étape par étape, suggérer un plan d’action
- Copilot Enterprise permettra de faire des recherches avec le contexte entier du code de l’entreprise, donc idéalement meilleur que le focus sur un repo de Copilot
Un guide sur OpenRewrite https://feeds.feedblitz.com//819402521/0/baeldungA-Guide-to-OpenRewrite
- permet de refactorer le code via des règles
- mise a jour de dependences, enlever usage d’api dépréciées, migration d’une bibliothèque a une autre, etc
- migration java, migration framework, transformations spécifiques a votre société
- OpenRewrite vient avec un écosystème de recettes
- intégration via maven ou gradle
- la suite montre des examples de migrations
Article interessant sur Monolithe vs Microservices ! https://www.infoq.com/articles/monolith-versus-microservices/
- Le débat monolithe vs microservices. Les monolithes reviennent, par exemple spring-modulith https://spring.io/projects/spring-modulith
- Les microservices sont la solution à la complexité plutôt que la cause de celle-ci. Toutes les applications deviendront complexes ; au-delà d’un certain point, les microservices nous aideront à gérer cette complexité.
- Les microservices comportent des coûts et des avantages. Si les avantages ne l’emportent pas sur les coûts, vous n’aurez pas une expérience positive avec les microservices.
- Nous pouvons arrêter notre transition vers les microservices quelque part au milieu du spectre, ce que j’aime appeler le modèle hybride. À ce stade, nous pouvons avoir quelques gros services mélangés à quelques petits services. Nous pouvons avoir le meilleur des deux mondes : la simplicité et la commodité du monolithe combinées à la flexibilité et à la scalabilité des microservices.
- Il n’y a pas de choix binaire entre monolithique et microservices. En réalité, il existe un spectre de possibilités entre les deux. Si vous vous êtes fixé à l’une des extrémités du spectre, vous passez à côté de la grande variété d’architectures intermédiaires.
- Nous devrions cesser de parler de monolithe contre microservices et plutôt avoir un débat plus nuancé sur la taille appropriée des services.
- les microservices mettent sur le devant de la scene la complexification du système, les monolithes le cachent sous le tapis
- les microservices permette de manager cette complexité
- automatisation est la clés dans l’adoption des microservices
- bien aligner son architecture et son domain ou alors la douleur arrive
Une explication de la CVE sur HTTP/2 https://quarkus.io/blog/cve-2023-44487/
- en fonction de l’implémentation, le risque est plus ou moins grand (de plus de CPU a un full DDOS)
- au cœur du problème est la capacité d’envoyer pleins de requêtes en parallèle sur le meme pipeline HTTP/2
- les serveurs ont en general une limite au streams en parallèle (genre 100)
- la CVE est exploitée cote client en ouvrant et fermant rapidement une stream, c’est plus léger sur le client, le serveur a un delai dans sont processing
- ce qui permet de bypasser la limit et affamer les resources du serveur
- c’es catastrophique en cas de one thread per request (thread starvation)
- en event loop, c’est une queue plus grande (donc le cas de quarkus)
- pour mitiger, quarkus regarde le nombre de stream close requests par seconde pour détecter les abus (200 requêtes de fermeture sur une fetnetre de 30s)
Elon Musk annonce son LLM, appelé Grok https://x.ai/
- Connectivité en temps réel avec Twitter !
- Fenêtre de contexte de 25k characters
- Le LLM garderait le contexte de la conversation (au lieu d’avoir à toujours renvoyer toute la discussion dans le contexte, à cause du côté sans état des LLMs habituellement)
- Le style, la personnalité, du LLM, serait assez humoristique, voire carrément sarcastique, à la Musk… et déjà sur Twitter une personne commentait en disant que c’était le LLM “anti-woke”
- Grok serait disponible pour les utilisateurs payants de Twitter
OpenAI fait 4 nouvelles annonces https://openai.com/blog/new-models-and-developer-products-announced-at-devday
- GPT-4 Turbo : leur dernier et plus puissant LLM. Il offre un contexte de 128k tokens, des prix plus bas et des quotas plus élevés. 128k c’est comme Claude
- Assistants API : une solution permettant de créer des mini assistants personnalisés et de les exposer via une API. L’objectif est de faciliter l’intégration des solutions GenAI dans les applications, avec des fonctionnalités de gestion des conversations, d’interprétation de code et de RAG.
- API pour DALL•E 3 : un modèle de 3e génération pour la génération d’images.
- GPTs : des versions personnalisées de ChatGPT, faciles à développer même sans compétences en programmation. Une place de marché sera disponible pour monétiser ces “GPTs”.
- Merci Didier et son X de résumer
- un article plus complet de SFEIR https://www.sfeir.dev/ia/quand-lesprit-de-noel-sinvite-a-lopenai-devday/
- Protection juridique en cas d’attaque de droits d’auteur
Les acteurs et la IA, deal pour arrêter a grève https://www.bbc.com/news/entertainment-arts-67364587
- Les acteurs et les grands studios d’Hollywood ont conclu un accord le 8 novembre pour mettre fin à une grève qui a paralysé la production de films et de séries aux États-Unis pendant plusieurs mois.
- L’accord prévoit une nouvelle convention collective de trois ans pour les acteurs (hormis les vedettes, les acteurs n’arrivent pas à gagner leur vie avec le streaming)
- Revalorisation importante des salaires minimums ainsi que des des garde-fous contre le IA. Un système de primes pour les rediffusions en streaming.
- Double mouvement social historique : acteurs sont entrés en grève mi-juillet, les scénaristes depuis début mai. La paralysie du secteur a coûté au moins 6 milliards de dollars.
- Les acteurs craignaient que les studios utilisent l’IA pour cloner leur voix et leur image, les réutiliser à perpétuité, sans compensation ni consentement. Les conditions entourant les droits des studios sur l’image des acteurs stars après leur mort a été négocié.
Chute de WeWork, dépôt de bilan https://www.maddyness.com/2023/11/06/wework-impact-coworking-france/
- La disparition annoncée du géant mondial du coworking marque un tournant pour le secteur, y compris en France.
- Asphyxié par une dette de près de 3 milliards de dollars
- Chute interminable entamée en 2019
- WeWork était le leader mondial du secteur et, de par son statut de pionnier du coworking
- WeWork propose 15 établissements en France, tous situés à Paris
- Pourtant la demande pour le coworking ne cesse d’exploser
- Startups domicilient leur siège (Qonto par exemple) dans un espace de co-working
- Le modèle du coworking n’est pas remis en cause. WeWork, c’est un phénomène à part. Il y a eu une mauvaise gestion de départ d’une licorne qui croît à toute vitesse, en ne faisant absolument pas attention à son modèle économique de base (dit Clément Alteresco CEO de Morning)
- Mauvaise publicité pour le marché et les concurrents, mais considèrent qu’ils vont s’en sortir
Les français, les utilisateurs twitter le plus violents d’Europe? https://www.huffingtonpost.fr/france/article/les-francais-sont-les-utilisateurs-de-twitter-les-plus-violents-d-europe_225331.html#:~:text=2023%2023%3A57-,Les%20Fran%C3%A7ais%20sont%20les%20utilisateurs%20de%20Twitter%20les%20plus%20violents,’Allemagne%20et%20l’Espagne.
- Les signalements de contenus, suppressions et suspensions pour propos violents et haineux au sein de X sont les plus nombreux en France, loin devant l’Allemagne et l’Espagne.
- 16.288 suppressions de messages contre 7.160 en Allemagne et 7.743 en Espagne
- X explique avoir une « équipe internationale et inter-fonctionnelle » de « modérateurs humains », qui travaillent « 24 heures sur 24 avec la capacité de couvrir plusieurs langues ».
Sam Altman PDG d’OpenAI est débarqué par son conseil de surveillance https://thealgorithmicbridge.substack.com/p/why-openai-fired-sam-altman-and-what
- ça a surpris le monde la silicone valley dans lequel Altman est adulé.
- N ancien cofondateur a aussi été écarté à un poste périphérique mais a décidé de quitter le navire.
- C’est du à des tensions dans la boîte entre la partie lucrative et non lucrative d’OpenAI.
- Le conseil travail pour une AI sûre et pour le bien de l’humanité
- Sam Altman avait fait prendre le virage for du business depuis quelques années
- Il n’a selon le communiqué pas été franc et transparent avec son conseil de surveillance.
- Microsoft qui a misé sur ce cheval (OpenAI) n’était pas au courant, ni la plupart des employés d’OpenAI
- Quelques employés de OpenAI ont déjà démissionné
- la reduction des recherches fondamentales vs la productization a joué un role surement
- Et il n’est pas le seul à partir https://x.com/hellokillian/status/1725797467315486902?s=46&t=GLj1NFxZoCFCjw2oYpiJpw
- Encore mieux que Dallas le board négocie son retour au bout de 24h https://www.theverge.com/2023/11/18/23967199/breaking-openai-board-in-discussions-with-sam-altman-to-return-as-ceo
- Et le board saute: https://twitter.com/rowancheung/status/1726342477874102604?s=21&t=O1MqQ7XEw5hIAezn-npoQA
- Finalement, Satya Nadella annonce que Sam Altman et Greg Brockman rejoignent Microsoft dans une nouvelle équipe de recherche IA https://twitter.com/satyanadella/status/1726509045803336122
- et finalement avec un nouveau board, Sam Altman retourne chez open AI https://x.com/sama/status/1727207458324848883?s=20
Les groupes “Responsible AI” chez Google, Microsoft et plus récemment Meta https://www.theverge.com/2023/11/18/23966980/meta-disbanded-responsible-ai-team-artificial-intelligence?utm_source=substack&utm_medium=email sont détruits
- meme débat chez OpenAI en fait.
- difficile de comprendre les raisons, à part que la course s’est accélérée
- l’article site les gouvernements qui veulent réguler mais je ne comprends pas en quoi cela influence
Retrouvez les conférences sur le site Developers Conferences Agenda/List par Aurélie Vache.
Nous contacterPour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via twitter https://twitter.com/lescastcodeurs Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
318 afleveringen
Manage episode 386152346 series 25488
Dans cet épisode, Emmanuel, Guillaume et Katia abordent les nouveautés Java, le lancement du langage Misty par Douglas Crockford, l’arrivée de WasmGC dans Chrome, la sortie de Spring Framework 6.1, des évolutions dans les bibliothèques comme Vert.x 4.5, et des conseils sur la création de langages de programmation. L’épisode couvre également des actualités dans les domaines de l’infrastructure avec le premier ordinateur cloud commercial par Oxide, des annonces sur les frameworks web comme Angular v17, des réflexions sur les architectures monolithiques versus microservices, et sans oublier le soap Opéra du moins de novembre avec OpenAI en vedette.
Enregistré le 23 novembre 2023
Téléchargement de l’épisode LesCastCodeurs-Episode-302.mp3
News LangagesRecap Javaiste https://www.infoq.com/news/2023/10/java-news-roundup-oct09-2023
- la JEP 454 sur l’appel a la memoire et les API dites natives passera en target pour JDK 22 avec une façon d’ajouter les appels de méthodes restreintes sans le flag --enable-native-access (via un manifeste dans le JAR)
- JDK 22 prévu pour mars 2024
- Spring Framework 6.1 est sorti (RC2)
- Tomcat a quelques CVE donc mettez à jour
Douglas Crockford, le papa de JSON, sort un nouveau langage dénommé Misty https://www.crockford.com/misty/
- Utilise des caractères unicodes pour définir des chaînes de caractères avec des chevrons, ou pour les opérateurs de base (comparison, and/or)
- Support de programmation concurrente avec les actors
WasmGC arrive dans Chrome, par l’intermédiaire de v8 https://v8.dev/blog/wasm-gc-porting
- historiquement il fallait compiler le port du langage lui meme (et donc son GC)
- Maintenant on peut compiler le code (java) dans des primitives Wasm et WasmGC
- Java python et co ont des VM qui sont compilées pour toutes les architecture cibles (ARM, x86 etc) y compris le JIT, AOT
- donc on peut définir comme backend WASM lui meme, c’est l’approche classique
- WasmGC définit des structs et des array avec des champs dans lesquels on peut créer des instances, lire/écrire les champs, caster dans d’autres types et ces objects sont managés par WasmGC lui meme. on a un système de type du coup et des relations entre ces types
- Donc on représenterait les objets Java en objets Wasm
- avantage et inconvenient des deux approches
- tous les codes de management d’objets ne sont plus nécessaires (y compris malloc) -> gain memoire
- en mode GC dans le langage les liens object langage <-> objets Wasm sont inefficaces car le lien langage -> wasm définissent l’instance entière Wasm, donc des gros cycles d’objets ne sont pas GCed
- Wasm sandbox empêche d’inspecter la stack et d’éliminer des objets plus efficacement, et il n’y a pas d’API pour aider donc seul WasmGC peut utiliser cet avantage.
- un seul GC a des avantages: meilleure gestion de la pression memoire
- mais on réutilise le GC du web (genre V8) vs celui de Java. (c’est moins un problème pour les autres langages avec des gc moins sophistiqués)
- fragmentation memoire, est plus proéminent quand on a des modules de type C qui peur garder des gros blocs memoire “quasi vide” (opaque). c’est managé plus finement en WasmGC
- Sémantiques de langage est plus dur a achevé vu qu’on map en concepts WasmGC, il y a de la transformation.
- sémantiques chaine de caractère, nombres, etc peuvent être un peu ajusté
- un port utilisant WasmGC n’est pas une réécriture de tout mais un gros morceau de la VM du langage cible est a réécrire
- WasmGC peut optimiser comme les patterns en JVM mais en WasmMVP c’est la toolchain avant qui fait le travail d’optimisation (e.g. LLVM)
- donc avec WasmGC, la toolchain fera les optimisations de langage et WasmGC fera les optimisations low level (inlining, constant propagation, dead code elimination)
- puis d’autres optimisation specific a WasmGC comme les escape analysis,
- et ils parlent d’optimisations dans V8 pour approcher les appels dynamique a la Java (pas défini a la compilation)
Ecrire un langage de programmation… ça prend du temps… beaucoup de temps https://yorickpeterse.com/articles/a-decade-of-developing-a-programming-language/
- Évitez le gradual typing
- Évitez le boostrapping de votre compilateur
- Évitez d’écrire votre propre générateur de code, linker, etc
- Évitez de tergiverser trop longtemps sur la syntaxe
- La prise en charge multiplateforme est un défi
- Les livres sur les compilateurs compilateurs ne valent pas l’argent que vous dépenserez dessus
- Faire grandir et évoluer un langage de programmation est difficile
- La meilleure suite de tests est une application réelle
- Ne privilégiez pas les performances sur les fonctionnalités.
Spring Boot rajoute le hot reload des certificats SSL pour embedded Netty et Tomcat https://spring.io/blog/2023/11/07/ssl-hot-reload-in-spring-boot-3-2-0
- utilisez reload-on-update: true
- et écoute les changements de fichiers
- pas mal dans les déploiements non immuables (pas comme kubernetes)
VertX 4.5 est sorti https://vertx.io/blog/whats-new-in-vert-x-4-5/
- support des thread virtuels qui permet d’écrire le code synchrone pour des cas complexes et utiliser les thread locaux dans ces cas la. Cela ne remplacement pas le code de process des événements
- le code put faire des future await qui ne bloqueront pas le thread principal
- connection SQL dynamique: quand le host change dynamiquement dans l’application
- support des proxies de niveau 7 pour les clients SQL
- rotation certificats a chaud
- des builders (HTTP, SQL connection)
- extensions pour utiliser les coroutines kotlin
Integration declarative de Langchain4j dans Quarkus https://quarkus.io/blog/quarkus-meets-langchain4j/
InfrastructureOxide sort le premier ordinateur cloud disponible commercialement https://oxide.computer/blog/the-cloud-computer
- pas facile de séparer le buzz de la réalité
- on dirait un ordi purpose built avec l’efficience et le cote compact en tete
- ils poussent contre le mode location uniquement des cloud providers
- en gros inspire des cloud providers qui construisent leurs propres ordis (et meme CPUs maintenant !)
- construit le hardware et le software en co optimisation
- c’est un rack entier, peu de bruit de ventilateur
- pas de cable (seul E/S du rack)
- donc ils ont leurs propres switch
- compliqué de différencier l’avantage du désavantage
Les leçons tirées de 20 de Site Reliability Engineering par Google https://sre.google/resources/practices-and-processes/twenty-years-of-sre-lessons-learned/
- Le risque d’une mitigation doit être proportionné à la gravité de la panne
- Les mécanismes de récupération doivent être entièrement testés avant une urgence
- Canarisez tous les changements
- Avoir un “gros bouton rouge”
- Les tests unitaires ne suffisent pas, des tests d’intégration sont également nécessaires
- CANAUX DE COMMUNICATION ! ET CANAUX DE SECOURS !! ET DES SAUVEGARDES POUR CES CANAUX DE SECOURS !!!
- Modes de dégradation intentionnelle des performances
- Tester la résilience aux catastrophes
- Automatisez vos mitigations
- Réduisez le temps entre les déploiements, afin de diminuer la probabilité que le déploiement tourne mal
- Une seule version matérielle globale est un point de défaillance unique
Karpenter une evolution de autoscaler pour les cluster kubernetes https://blog.ippon.fr/2023/11/07/mettez-a-lechelle-vos-clusters-kubernetes-de-maniere-efficace-et-faites-des-economies-avec-karpenter/
- fonctionne uniquement pour AWS aujourd’hui et un projet AWS donc a voir la portabilité
- permet d’ajouter ou de supprimer des noeuds au cluster kubernetes en dynamique pour right sizer ses clusters
- bypass les API kube pour la creation d’instance et utilise les APIs AWS EC2 directement
- permet des noeuds hétérogènes (pas homogène comme autoscaler)
- et se right size rapidement (e.g. 30s pour éteindre un noeud)
- besoin d’applis cloud native par elles vont être baladées
Deno! https://www.infoq.com/news/2023/10/deno-jupyter-integration
- Dev experience, jupyter notebook integration
- Améliorations sur Visual Studio Code extension (compatible avec NodeJS)
- Exec native sur Jupyter de javascript et typescript permet d’effectuer des analyses de données, construire des modèles d’apprentissage automatique et générer des rapports interactifs avec Deno
- Visualisation dynamiques avec D3 dans le notebook
- Connection à Deno KV
- Plusieurs améliorations sur le testing, APIs etc
Lancement du nouveau site angular.dev et de la version v17 du framework https://blog.angular.io/announcing-angular-dev-1e1205fa3039
- nouvelle doc, nouveaux tutoriels, et bac à sable
- un nouveau logo aussi
- mais cette version v17 est la continuation d’Angular, pas une toute nouvelle version qui casse tout
- le nouveau “control flow” devient GA, et propose des conditionals (if, else…) https://blog.angular.io/meet-angulars-new-control-flow-a02c6eee7843
- le blog d’Angular mentionne les nouveautés, au-delà du revamp de la documentation https://blog.angular.io/introducing-angular-v17-4d7033312e4b
- Cédric Exbrayat mets les mains dans le cambouis et couvre les nouveautés techniques dans le blog des Ninja Squad https://blog.ninja-squad.com/
- Et les nouveautés aussi du côté de la CLI https://blog.ninja-squad.com/2023/11/09/angular-cli-17.0/
- beaucoup de focus sur l’apprentissage et la manipulation concrete avec le bac a sable et les tutoriaux
- le site lui meme est maintenant open source (il ne l’était pas avant?)
- le logo est nouveau et adaptable par les communautés
Il est possible de signer et notariser des applications pour macOS sur des machines non-Apple https://gregoryszorc.com/blog/2022/08/08/achieving-a-completely-open-source-implementation-of-apple-code-signing-and-notarization/
- implémenté en Rust
- pratique pour son pipeline CI/CD basé sur Linux
- a priori, il y a des outils similaires pour le monde Windows, qui permet de signer sur une machine non-Windows https://github.com/mtrojnar/osslsigncode
Lors de son Github Universe, Copilot fait le show ! https://github.blog/2023-11-08-universe-2023-copilot-transforms-github-into-the-ai-powered-developer-platform/
- Copilot Chat sera GA en décembre, il utilise GPT4, il permet de guider le développeur, de générer du code, de détecter des erreurs et aide à les corriger, d’expliquer le code
- Intégration à venir de Copilot Chat dans les IDEs de JetBrains
- Copilot Chat va être intégrer sur github.com et dans l’appli mobile aussi
- Introduction de GitHub Copilot Enterprise pour les sociétés, qui permettra de spécialisé le modèle sur le code de l’entreprise
- Intégration de Copilot ans Workspace, donc quand on voudra adresser un bug, créer un pull request, Copilot pourra nous aider étape par étape, suggérer un plan d’action
- Copilot Enterprise permettra de faire des recherches avec le contexte entier du code de l’entreprise, donc idéalement meilleur que le focus sur un repo de Copilot
Un guide sur OpenRewrite https://feeds.feedblitz.com//819402521/0/baeldungA-Guide-to-OpenRewrite
- permet de refactorer le code via des règles
- mise a jour de dependences, enlever usage d’api dépréciées, migration d’une bibliothèque a une autre, etc
- migration java, migration framework, transformations spécifiques a votre société
- OpenRewrite vient avec un écosystème de recettes
- intégration via maven ou gradle
- la suite montre des examples de migrations
Article interessant sur Monolithe vs Microservices ! https://www.infoq.com/articles/monolith-versus-microservices/
- Le débat monolithe vs microservices. Les monolithes reviennent, par exemple spring-modulith https://spring.io/projects/spring-modulith
- Les microservices sont la solution à la complexité plutôt que la cause de celle-ci. Toutes les applications deviendront complexes ; au-delà d’un certain point, les microservices nous aideront à gérer cette complexité.
- Les microservices comportent des coûts et des avantages. Si les avantages ne l’emportent pas sur les coûts, vous n’aurez pas une expérience positive avec les microservices.
- Nous pouvons arrêter notre transition vers les microservices quelque part au milieu du spectre, ce que j’aime appeler le modèle hybride. À ce stade, nous pouvons avoir quelques gros services mélangés à quelques petits services. Nous pouvons avoir le meilleur des deux mondes : la simplicité et la commodité du monolithe combinées à la flexibilité et à la scalabilité des microservices.
- Il n’y a pas de choix binaire entre monolithique et microservices. En réalité, il existe un spectre de possibilités entre les deux. Si vous vous êtes fixé à l’une des extrémités du spectre, vous passez à côté de la grande variété d’architectures intermédiaires.
- Nous devrions cesser de parler de monolithe contre microservices et plutôt avoir un débat plus nuancé sur la taille appropriée des services.
- les microservices mettent sur le devant de la scene la complexification du système, les monolithes le cachent sous le tapis
- les microservices permette de manager cette complexité
- automatisation est la clés dans l’adoption des microservices
- bien aligner son architecture et son domain ou alors la douleur arrive
Une explication de la CVE sur HTTP/2 https://quarkus.io/blog/cve-2023-44487/
- en fonction de l’implémentation, le risque est plus ou moins grand (de plus de CPU a un full DDOS)
- au cœur du problème est la capacité d’envoyer pleins de requêtes en parallèle sur le meme pipeline HTTP/2
- les serveurs ont en general une limite au streams en parallèle (genre 100)
- la CVE est exploitée cote client en ouvrant et fermant rapidement une stream, c’est plus léger sur le client, le serveur a un delai dans sont processing
- ce qui permet de bypasser la limit et affamer les resources du serveur
- c’es catastrophique en cas de one thread per request (thread starvation)
- en event loop, c’est une queue plus grande (donc le cas de quarkus)
- pour mitiger, quarkus regarde le nombre de stream close requests par seconde pour détecter les abus (200 requêtes de fermeture sur une fetnetre de 30s)
Elon Musk annonce son LLM, appelé Grok https://x.ai/
- Connectivité en temps réel avec Twitter !
- Fenêtre de contexte de 25k characters
- Le LLM garderait le contexte de la conversation (au lieu d’avoir à toujours renvoyer toute la discussion dans le contexte, à cause du côté sans état des LLMs habituellement)
- Le style, la personnalité, du LLM, serait assez humoristique, voire carrément sarcastique, à la Musk… et déjà sur Twitter une personne commentait en disant que c’était le LLM “anti-woke”
- Grok serait disponible pour les utilisateurs payants de Twitter
OpenAI fait 4 nouvelles annonces https://openai.com/blog/new-models-and-developer-products-announced-at-devday
- GPT-4 Turbo : leur dernier et plus puissant LLM. Il offre un contexte de 128k tokens, des prix plus bas et des quotas plus élevés. 128k c’est comme Claude
- Assistants API : une solution permettant de créer des mini assistants personnalisés et de les exposer via une API. L’objectif est de faciliter l’intégration des solutions GenAI dans les applications, avec des fonctionnalités de gestion des conversations, d’interprétation de code et de RAG.
- API pour DALL•E 3 : un modèle de 3e génération pour la génération d’images.
- GPTs : des versions personnalisées de ChatGPT, faciles à développer même sans compétences en programmation. Une place de marché sera disponible pour monétiser ces “GPTs”.
- Merci Didier et son X de résumer
- un article plus complet de SFEIR https://www.sfeir.dev/ia/quand-lesprit-de-noel-sinvite-a-lopenai-devday/
- Protection juridique en cas d’attaque de droits d’auteur
Les acteurs et la IA, deal pour arrêter a grève https://www.bbc.com/news/entertainment-arts-67364587
- Les acteurs et les grands studios d’Hollywood ont conclu un accord le 8 novembre pour mettre fin à une grève qui a paralysé la production de films et de séries aux États-Unis pendant plusieurs mois.
- L’accord prévoit une nouvelle convention collective de trois ans pour les acteurs (hormis les vedettes, les acteurs n’arrivent pas à gagner leur vie avec le streaming)
- Revalorisation importante des salaires minimums ainsi que des des garde-fous contre le IA. Un système de primes pour les rediffusions en streaming.
- Double mouvement social historique : acteurs sont entrés en grève mi-juillet, les scénaristes depuis début mai. La paralysie du secteur a coûté au moins 6 milliards de dollars.
- Les acteurs craignaient que les studios utilisent l’IA pour cloner leur voix et leur image, les réutiliser à perpétuité, sans compensation ni consentement. Les conditions entourant les droits des studios sur l’image des acteurs stars après leur mort a été négocié.
Chute de WeWork, dépôt de bilan https://www.maddyness.com/2023/11/06/wework-impact-coworking-france/
- La disparition annoncée du géant mondial du coworking marque un tournant pour le secteur, y compris en France.
- Asphyxié par une dette de près de 3 milliards de dollars
- Chute interminable entamée en 2019
- WeWork était le leader mondial du secteur et, de par son statut de pionnier du coworking
- WeWork propose 15 établissements en France, tous situés à Paris
- Pourtant la demande pour le coworking ne cesse d’exploser
- Startups domicilient leur siège (Qonto par exemple) dans un espace de co-working
- Le modèle du coworking n’est pas remis en cause. WeWork, c’est un phénomène à part. Il y a eu une mauvaise gestion de départ d’une licorne qui croît à toute vitesse, en ne faisant absolument pas attention à son modèle économique de base (dit Clément Alteresco CEO de Morning)
- Mauvaise publicité pour le marché et les concurrents, mais considèrent qu’ils vont s’en sortir
Les français, les utilisateurs twitter le plus violents d’Europe? https://www.huffingtonpost.fr/france/article/les-francais-sont-les-utilisateurs-de-twitter-les-plus-violents-d-europe_225331.html#:~:text=2023%2023%3A57-,Les%20Fran%C3%A7ais%20sont%20les%20utilisateurs%20de%20Twitter%20les%20plus%20violents,’Allemagne%20et%20l’Espagne.
- Les signalements de contenus, suppressions et suspensions pour propos violents et haineux au sein de X sont les plus nombreux en France, loin devant l’Allemagne et l’Espagne.
- 16.288 suppressions de messages contre 7.160 en Allemagne et 7.743 en Espagne
- X explique avoir une « équipe internationale et inter-fonctionnelle » de « modérateurs humains », qui travaillent « 24 heures sur 24 avec la capacité de couvrir plusieurs langues ».
Sam Altman PDG d’OpenAI est débarqué par son conseil de surveillance https://thealgorithmicbridge.substack.com/p/why-openai-fired-sam-altman-and-what
- ça a surpris le monde la silicone valley dans lequel Altman est adulé.
- N ancien cofondateur a aussi été écarté à un poste périphérique mais a décidé de quitter le navire.
- C’est du à des tensions dans la boîte entre la partie lucrative et non lucrative d’OpenAI.
- Le conseil travail pour une AI sûre et pour le bien de l’humanité
- Sam Altman avait fait prendre le virage for du business depuis quelques années
- Il n’a selon le communiqué pas été franc et transparent avec son conseil de surveillance.
- Microsoft qui a misé sur ce cheval (OpenAI) n’était pas au courant, ni la plupart des employés d’OpenAI
- Quelques employés de OpenAI ont déjà démissionné
- la reduction des recherches fondamentales vs la productization a joué un role surement
- Et il n’est pas le seul à partir https://x.com/hellokillian/status/1725797467315486902?s=46&t=GLj1NFxZoCFCjw2oYpiJpw
- Encore mieux que Dallas le board négocie son retour au bout de 24h https://www.theverge.com/2023/11/18/23967199/breaking-openai-board-in-discussions-with-sam-altman-to-return-as-ceo
- Et le board saute: https://twitter.com/rowancheung/status/1726342477874102604?s=21&t=O1MqQ7XEw5hIAezn-npoQA
- Finalement, Satya Nadella annonce que Sam Altman et Greg Brockman rejoignent Microsoft dans une nouvelle équipe de recherche IA https://twitter.com/satyanadella/status/1726509045803336122
- et finalement avec un nouveau board, Sam Altman retourne chez open AI https://x.com/sama/status/1727207458324848883?s=20
Les groupes “Responsible AI” chez Google, Microsoft et plus récemment Meta https://www.theverge.com/2023/11/18/23966980/meta-disbanded-responsible-ai-team-artificial-intelligence?utm_source=substack&utm_medium=email sont détruits
- meme débat chez OpenAI en fait.
- difficile de comprendre les raisons, à part que la course s’est accélérée
- l’article site les gouvernements qui veulent réguler mais je ne comprends pas en quoi cela influence
Retrouvez les conférences sur le site Developers Conferences Agenda/List par Aurélie Vache.
Nous contacterPour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via twitter https://twitter.com/lescastcodeurs Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
318 afleveringen
Alle afleveringen
×Welkom op Player FM!
Player FM scant het web op podcasts van hoge kwaliteit waarvan u nu kunt genieten. Het is de beste podcast-app en werkt op Android, iPhone en internet. Aanmelden om abonnementen op verschillende apparaten te synchroniseren.