Auditeurs:
Meilleurs auditeurs :
play_arrow
Big Bang Radio – HQ+ 320 kbps (AAC+) Big Bang Radio Live
play_arrow
Big Bang Radio – HD 1500 kbps (Qualité CD) Big Bang Radio Live
play_arrow
Podcast - La géométrie quantique
Le rover Perseverance fête ses cinq ans d’exploration sur Mars, marquant une étape majeure dans la compréhension de la Planète Rouge. Depuis son atterrissage dans le cratère Jezero, le robot a confirmé l’existence passée d’un delta de rivière, collecté des échantillons de roches riches en molécules organiques et documenté des phénomènes atmosphériques inédits, comme des décharges électrostatiques dans les tempêtes de poussière. L’article souligne que si la preuve définitive d’une vie passée reste à établir, les biosignatures potentielles identifiées dans les sédiments lacustres sont les plus prometteuses jamais découvertes. Ces prélèvements, scellés dans des tubes en attente de leur retour sur TerreTerreTerre Terre. Notre résidence, unique par la présence d'eau liquide abondante et de vie. Elle possède une atmosphère riche en oxygène et un champ magnétique protecteur. Vitesse de Rotation : 1674.4 km/h (23.9 heures terrestres) Vitesse Orbitale Moyenne : 29.78 km/s Distance Moyenne du Soleil (UA) : 1.00 UA Température Moyenne : 15 °C Circonférence : 40 075 km Lunes principales : La Lune Composition Atmosphérique : 78 % d'azote (N2), 21 % d'oxygène (O2), 0,9 % d'argon (Ar), 0,04 % de dioxyde de carbone (CO2), et des traces d'autres gaz., constituent le trésor scientifique le plus précieux de l’histoire spatiale. Cette mission a non seulement transformé notre vision de l’habitabilité martienne, mais elle a aussi testé avec succès la production d’oxygène in situ, ouvrant la voie aux futures explorations habitées.
L’Université Bishop’s a annoncé son intégration officielle à un consortium national canadien dédié à l’astronomie des ondes gravitationnelles. Ce projet vise à perfectionner les méthodes de détection des ondulations de l’espace-temps provoquées par les collisions cataclysmiques de trous noirs et d’étoiles à neutrons. En combinant l’expertise théorique des chercheurs de Bishop’s avec les données issues des détecteurs interférométriques de nouvelle génération, l’objectif est de cartographier la structure profonde de l’UniversUniversLe grand tout Qu'est-ce que l'Univers ? Découvrez sa définition, son origine depuis le Big Bang, sa composition (matière, énergie sombre) et les grands mystères qui entourent encore son existence et son destin. Il est la totalité de tout ce qui existe : l'ensemble de la matière et de l'énergie distribuées dans l'espace-temps. Il contient les planètes, les étoiles, les galaxies et toutes les autres formes de matière et d'énergie, ainsi que les lois physiques qui les gouvernent. Sa science d'étude est la cosmologie. Qu'est-ce qui compose notre univers ? Quand on regarde le ciel, on imagine une immensité remplie d'étoiles et de galaxies. En réalité, cette matière visible ou ordinaire ne représente qu'environ 5% de la composition totale de l'Univers. Le reste est un mystère, divisé en deux composantes hypothétiques : environ 27% de matière noire, une substance invisible qui n'interagit pas avec la lumière mais exerce une force gravitationnelle, et environ 68% d'énergie sombre, une force encore plus énigmatique qui serait responsable de l'accélération de l'expansion de l'Univers. Origine et évolution Le modèle cosmologique dominant est celui du Big Bang. Selon cette théorie, l'Univers a commencé il y a environ 13,8 milliards d'années à partir d'un état extrêmement dense et chaud, une singularité. Il n'a cessé de s'étendre et de se refroidir depuis. Cette expansion a permis la formation des premières particules, puis des atomes, qui se sont ensuite agrégés sous l'effet de la gravité pour former les premières étoiles et galaxies. L'expansion de l'Univers est toujours en cours aujourd'hui ; on observe même qu'elle accélère, un phénomène attribué à l'énergie sombre. Les grands mystères qui demeurent Malgré nos connaissances, l'Univers pose des questions vertigineuses. Quelle est la nature exacte de la matière noire et de l'énergie sombre ? L'Univers est-il fini ou infini ? A-t-il des bords ? Et la question ultime : qu'y avait-il avant le Big Bang ? Ces questions sont au cœur de la recherche en physique et en astrophysique, repoussant sans cesse les limites de notre entendement. Pour aller plus loin Le site de la NASA sur la cosmologie (nasa.gov). Un dossier du CNRS sur l'expansion de l'Univers. Le site de l'Agence Spatiale Européenne (ESA) sur la mission Euclid, dédiée à l'étude de l'énergie sombre. La recette cosmique la composition de l'Univers : 5% de Matière ordinaire (étoiles, planètes, nous). 27% de Matière noire (invisible). 68% de Énergie sombre (mystérieuse). [caption id="attachment_42682" align="alignnone" width="770"] Crédit Image : sous licence de Google[/caption] avec une précision inégalée. Cette collaboration permettra d’analyser les signaux les plus faibles, souvent masqués par le bruit de fond cosmique, pour tester les limites de la relativité générale dans des champs gravitationnels extrêmes. Cette avancée positionne l’université comme un acteur clé dans la compréhension des événements les plus violents et mystérieux du cosmos, contribuant ainsi à une nouvelle ère de l’astronomie multi-messager.
Le NOIRLab a publié de nouvelles images spectaculaires de la nébuleuse d’Orion, révélant des détails complexes sur la formation stellaire. Grâce à l’utilisation d’optiques adaptatives sur de grands télescopes terrestres, les astronomes ont pu percer les denses nuages de poussière pour observer des proto-étoiles encore enveloppées dans leurs disques d’accrétion. Ces observations montrent comment les radiations intenses des étoiles massives sculptent leur environnement, créant des cavités gazeuses et déclenchant la naissance de nouvelles générations d’astres. L’étude met en lumière la dynamique turbulente des gaz au sein de ces pouponnières, où la gravité et le magnétisme s’affrontent pour façonner les futurs systèmes planétaires. Ces données sont essentielles pour comprendre la diversité des architectures stellaires et pour affiner nos modèles sur l’origine du Soleil et de son cortège de planètes au sein de tels environnements chaotiques.
Une collaboration scientifique internationale entre l’Université d’Hawaii à Hilo, le télescope Canada-France-Hawaii (CFHT) et l’Université Laval a permis de réaliser une simulation ultra-précise d’une collision galactique à grande échelle. En couplant des observations réelles de haute résolution avec des modèles numériques avancés, les chercheurs ont pu reproduire la danse gravitationnelle de deux galaxies spirales s’apprêtant à fusionner. L’étude se concentre sur le destin des gaz interstellaires et des trous noirs centraux lors de ces événements titanesques, qui transforment radicalement la morphologie des galaxies et déclenchent des vagues de formation d’étoiles. Cette simulation permet de prédire le futur de la Voie lactée, destinée à fusionner avec la galaxie d’Andromède. Cette synergie entre observatoires et universités souligne l’importance du calcul de haute performance pour visualiser les processus qui structurent l’Univers à l’échelle des temps cosmologiques.
L’Université de Lorraine explore les avancées récentes des modèles de fondation en intelligence artificielle, soulignant le passage vers des architectures plus sobres et performantes. L’article détaille comment les nouveaux modèles de langage et de vision dépassent la simple génération de texte pour intégrer des capacités de raisonnement symbolique et de compréhension contextuelle profonde. Ces modèles à haut potentiel se distinguent par leur capacité à apprendre à partir de jeux de données plus restreints mais de meilleure qualité, réduisant ainsi leur empreinte énergétique. Les chercheurs mettent en avant l’importance de l’interdisciplinarité pour garantir que ces systèmes restent transparents et éthiques. Cette évolution vers une IA plus raisonnée promet de transformer des secteurs critiques comme la santé et l’ingénierie, en offrant des outils de diagnostic et de conception capables d’expliquer leurs décisions, instaurant ainsi une confiance accrue entre l’humain et la machine.
Fujitsu a dévoilé une avancée significative dans le domaine de l’informatique quantique avec le lancement d’une nouvelle plateforme hybride combinant simulateurs quantiques et processeurs supraconducteurs. Cette architecture vise à résoudre les problèmes de correction d’erreurs, l’un des principaux obstacles à l’utilisation industrielle du quantique. En optimisant les flux de données entre les unités de calcul classiques et les qubits, Fujitsu permet désormais d’exécuter des algorithmes complexes avec une stabilité accrue. Cette technologie est déjà testée pour la découverte de nouveaux matériaux et l’optimisation logistique à grande échelle. L’entreprise souligne que cette approche pragmatique permet aux entreprises de bénéficier dès aujourd’hui des avantages du quantique sans attendre la perfection des machines futures. Cette annonce renforce la position de Fujitsu comme leader de la transformation numérique, offrant un pont concret vers l’ère du calcul ultra-puissant.

La start-up NextGen Nano a annoncé un investissement de 380 millions de dollars pour déployer sa technologie de nanopolymères dans le secteur de l’agrivoltaïsme. Ce programme ambitieux repose sur l’utilisation de cellules photovoltaïques transparentes et flexibles qui peuvent être installées directement sur des serres ou des structures agricoles sans bloquer la lumière nécessaire à la photosynthèse. Contrairement aux panneaux en silicium opaques, cette technologie basée sur la nanotechnologie permet de filtrer sélectivement les spectres lumineux, optimisant à la fois la production d’électricité et la croissance des cultures. Ce double usage des terres agricoles est présenté comme une solution clé pour répondre à la demande croissante en énergie renouvelable tout en préservant la sécurité alimentaire. Ce financement massif permettra d’accélérer la production industrielle et de lancer des projets pilotes sur plusieurs continents, marquant un tournant pour l’énergie durable.
Une étude du MIT Sloan met en lumière le phénomène inquiétant des déserts de données algorithmiques, où des segments entiers de la population sont exclus des services numériques faute de données suffisantes. Les algorithmes d’IA, conçus pour optimiser les offres commerciales ou financières, ont tendance à ignorer les individus dont les comportements ne rentrent pas dans les modèles standards. Cette exclusion crée un cercle vicieux : sans données, ces consommateurs n’ont pas accès aux services, et sans accès, ils ne génèrent pas de données. Les chercheurs alertent sur le fait que cette invisibilité numérique renforce les inégalités sociales et économiques. Le rapport préconise une révision des méthodes de collecte de données pour inclure des sources alternatives et garantir une équité algorithmique. Ce défi dépasse la simple technique pour devenir un enjeu de justice sociale dans une économie de plus en plus régie par les décisions automatisées.