Petite mathématique du cerveau - Une théorie de l'information mentale [ Livre] ; Claude, Berrou / Vincent, Gripon
Langue: Français ; de l'oeuvre originale, Français.Publication : Paris : Odile Jacob, 2012Description : 1 vol. (160 p.) ; 22cmISBN: 9782738128386.Classification: 004.11 Théorie de l’informationRésumé: Du neurone, on sait à peu près tout. De l'information mentale qu'il traite, on ne sait presque rien. Sous quelle forme " matérielle " et selon quelle organisation interne notre cerveau range-t-il ses données et de quelle manière les restitue-t-il à la demande ? Ces questions ayant trait à l'information mentale relèvent moins de la biologie et de la neuro-anatomie que de la théorie de l'information, formulée à l'origine par des spécialistes des télécommunications et du codage. Cet ouvrage très abordable apporte une première réponse concrète, mathématiquement cohérente et biologiquement plausible, sur la manière dont le réseau neural fixe et remémore ses éléments de connaissance. S'y mêlent, en une théorie originale, neurones et graphes, codes correcteurs d'erreurs et colonnes corticales, " cliques " neurales et autres" tournois ", en quête des algorithmes de notre cerveau. Ces perspectives de développement offertes par cette théorie et par le modèle de mémoire cérébrale entièrement numérique auquel elle conduit sont nombreuses et prometteuses, en neurosciences comme dans le champ de l'intelligence artificielle. .Sujet - Nom commun: Cerveau -- Modèles mathématiques | Codes correcteurs d'erreurs (théorie de l'information) | NeuronesCurrent location | Call number | Status | Notes | Date due | Barcode |
---|---|---|---|---|---|
ENS Rennes - Bibliothèque Informatique | 004.11 BER (Browse shelf) | Available | 004.11 Théorie de l’information | 025135 |
Du neurone, on sait à peu près tout. De l'information mentale qu'il traite, on ne sait presque rien. Sous quelle forme " matérielle " et selon quelle organisation interne notre cerveau range-t-il ses données et de quelle manière les restitue-t-il à la demande ? Ces questions ayant trait à l'information mentale relèvent moins de la biologie et de la neuro-anatomie que de la théorie de l'information, formulée à l'origine par des spécialistes des télécommunications et du codage.
Cet ouvrage très abordable apporte une première réponse concrète, mathématiquement cohérente et biologiquement plausible, sur la manière dont le réseau neural fixe et remémore ses éléments de connaissance. S'y mêlent, en une théorie originale, neurones et graphes, codes correcteurs d'erreurs et colonnes corticales, " cliques " neurales et autres" tournois ", en quête des algorithmes de notre cerveau.
Ces perspectives de développement offertes par cette théorie et par le modèle de mémoire cérébrale entièrement numérique auquel elle conduit sont nombreuses et prometteuses, en neurosciences comme dans le champ de l'intelligence artificielle.