Entre rigueur mathématique, programmation, statistiques appliquées et sciences sociales, la licence MIASHS (mathématiques et informatique appliquées aux sciences humaines et sociales) exige un socle polyvalent.
La sélection ci-dessous réunit des ouvrages éprouvés que l’on peut réellement travailler au quotidien. Ceux-ci sont classés dans un ordre logique et cumulatif : des fondations mathématiques vers la statistique appliquée, l’économétrie, les séries temporelles, la programmation, puis l’ingénierie des données et l’algorithmique.
1. Maths pour l’économie – Analyse-Algèbre (Dunod, 7e édition, 2024)

Disponible sur Amazon Disponible à la Fnac
Ce manuel constitue la rampe de lancement idéale pour la première année de MIASHS. Il couvre, de manière progressive, l’analyse (fonctions, suites et séries, dérivation, intégration, optimisation) et l’algèbre linéaire (espaces vectoriels, matrices, déterminants, diagonalisation), avec un style pensé pour l’économie et la gestion. Chaque chapitre s’ouvre sur des objectifs clairs, enchaîne un cours synthétique et des exercices gradués avec corrigés détaillés, et se termine par l’“Essentiel” à retenir — un format très “licence-friendly”.
Pour un parcours MIASHS, c’est un point d’appui précieux : vous y forgerez le vocabulaire et les réflexes techniques qui serviront partout ailleurs (statistiques, optimisation, économétrie, machine learning). La 7e édition ajoute un chapitre sur les équations différentielles linéaires, utile dès qu’on modélise des dynamiques (croissance, diffusion, ajustements). Les notations sont standard et l’ouvrage excelle à relier la théorie aux usages (exemples économiques, interprétations graphiques) sans tomber dans le “recette-book”.
Comment l’utiliser ?
- Listez les objectifs en début de chapitre et cochez-les après chaque séance de TD.
 - Alternez “lecture active → exercice court → correction immédiate” pour ancrer les méthodes.
 - Tenez un carnet de formules (dérivées usuelles, règles d’optimisation, identités matricielles).
 - Entraînez-vous à l’oral : expliquez une preuve à voix haute, puis rédigez proprement.
 - En fin de semaine, refaites deux exercices sans regarder la solution pour vérifier la rétention.
 
2. Probabilités, analyse des données et statistique (Éditions Technip, 3e édition, 2011)

Disponible sur Amazon Disponible à la Fnac
Ouvrage “pont” entre théorie et pratique, ce classique de Gilbert Saporta embrasse le continuum statistique descriptive → probabilités → inférence → analyse de données. Sa force tient à une vision globale : on part des structures de données et de la qualité des mesures, on installe le cadre probabiliste (variables aléatoires, lois, espérance, variance), puis on passe à l’estimation, aux tests et aux modèles linéaires.
La seconde moitié est dédiée à l’analyse exploratoire multivariée : ACP, AFC, classification, analyse discriminante… autant d’outils très présents en SHS. Le livre insiste sur les hypothèses, les diagnostics (résidus, colinéarité, adéquation des modèles), et invite à une lecture critique des résultats—un réflexe vital en MIASHS. On y trouve des exemples tirés de jeux de données réels, des schémas clairs et une bibliographie solide. L’ouvrage ne couvre pas tout l’arsenal “data science” moderne, mais l’ossature probabiliste et l’outillage inférentiel y sont d’une limpidité rare.
Comment l’utiliser ?
- Lisez chaque chapitre avec un jeu de données maison (tableur → R/Python) et refaites les calculs.
 - Pour chaque méthode (ACP, régression), notez les hypothèses et diagnostics à vérifier.
 - Faites des fiches “lois usuelles” (Binomiale, Poisson, Normale…) : définitions + usages.
 - Reproduisez tous les graphiques (nuages, biplots) et commentez-les en cinq phrases.
 - Reliez systématiquement les résultats à une question de recherche SHS.
 
3. Statistiques en sciences humaines avec R (De Boeck Supérieur, 2014)

Disponible sur Amazon Disponible à la Fnac
Pensé pour les étudiant·e·s qui “n’ont jamais aimé les stats mais doivent les comprendre”, ce manuel propose une entrée en douceur dans R et les méthodes quantitatives utiles en SHS. Les auteurs misent sur une approche très didactique : peu de formalisme, beaucoup d’exemples commentés, des pas-à-pas pour manipuler les données (importation, nettoyage, recodage), produire des tableaux et des graphiques, et dérouler l’essentiel de l’inférence.
L’intérêt pour la MIASHS est double : d’une part, développer l’autonomie sur R — l’outil le plus courant en méthodo quanti — ; d’autre part, apprendre à raconter un résultat statistique à un public non spécialiste (mémoire, présentation pro). Les exemples collent au terrain SHS (questionnaires, variables catégorielles), et montrent comment passer d’un tableur aux scripts R sans douleur. Le livre ne vise pas l’exhaustivité, mais il fait parfaitement son travail : rendre opérationnel·le, rapidement, avec de bons réflexes.
Comment l’utiliser ?
- Reproduisez chaque chapitre dans RStudio ; sauvegardez vos scripts par thème (import, graphes…).
 - À chaque sortie (table/graphique), écrivez trois lignes d’interprétation en français courant.
 - Créez un dossier “réplication” pour vos TD (scripts + données + rendu).
 - Convertissez vos TP tableur en scripts R : objectif zéro clic manuel.
 - Variez les jeux de données (Insee, open data local) pour transférer les méthodes.
 
4. Économétrie (Dunod, 12e édition, 2024)

Disponible sur Amazon Disponible à la Fnac
Manuel francophone de référence, Bourbonnais propose un parcours clair du modèle de régression simple à la régression multiple, en passant par les pathologies (hétéroscédasticité, autocorrélation), la sélection de modèles, les modèles non linéaires, les séries temporelles (ARMA/ARIMA, VAR) et une ouverture aux équations simultanées et données de panel.
Chaque chapitre mêle objectifs pédagogiques, cours, exercices et “L’essentiel”, avec un soin particulier pour l’interprétation des résultats. Pour un profil MIASHS, l’ouvrage sert de colonne vertébrale : il rappelle que l’économétrie est une discipline d’inférence causale sous hypothèses explicites (indépendance, exogénéité, variables instrumentales). La 12e édition actualise diagnostics et séries temporelles et reste à une granularité parfaitement adaptée au niveau licence.
Comment l’utiliser ?
- Avant tout calcul, écrivez les hypothèses du modèle et ce qu’elles impliquent.
 - Refaites au moins un exercice dans deux logiciels (ex. Gretl et R) pour consolider vos repères.
 - Constituez une check-list “diagnostics” (résidus, multicolinéarité, tests) à appliquer à chaque régression.
 - Tenez un journal de décisions de modélisation (variables, transformations, exclusions).
 - Entraînez-vous à formuler l’incertitude (IC, p-value) en langage naturel.
 
5. Séries temporelles avec R (EDP Sciences, 2016)

Disponible sur Amazon Disponible à la Fnac
Ce petit volume très pédagogique guide l’étudiant·e dans l’univers parfois déroutant des séries temporelles. Plutôt que d’empiler les techniques, l’auteur adopte une démarche exploratoire : observer, graphique en main, la structure des séries (tendance, saisonnalité, ruptures), avant de modéliser.
Les rappels de statistique sont concis ; les modèles classiques (stationnarité, AR, MA, ARMA/ARIMA) sont introduits avec un souci permanent d’intuition et de mise en pratique sous R. Le livre encourage les bonnes habitudes : scripts reproductibles, diagnostics résiduels, prévisions honnêtes. Les exemples, modestes mais bien choisis, permettent d’aller vite vers l’essentiel : relier formes de la série et outils appropriés sans sur-interprétation.
Comment l’utiliser ?
- Reprenez vos propres données (indicateurs mensuels) et refaites toutes les figures (décomposition, ACF/PACF).
 - Confrontez au moins deux modèles (ARIMA vs. lissage exponentiel) et comparez leurs erreurs.
 - Rédigez une courte note de prévision avec hypothèses, scénario et incertitude.
 - Tenez une to-do “pièges” (saisonnalité mal gérée, sur-paramétrage, fuites d’information).
 - Versionnez vos scripts (Git) pour garder trace des essais.
 
6. Python pour les SHS – Introduction à la programmation pour le traitement de données (Presses universitaires de Rennes, 2021)

Disponible sur Amazon Disponible à la Fnac
Écrit pour les sciences humaines et sociales, ce manuel permet de démarrer Python en restant collé aux usages réels : nettoyage de données tabulaires, pandas, visualisation, statistiques descriptives/inférentielles, jusqu’à des usages plus avancés (automatisation, textes, web, carto). La promesse est tenue : minimum de code, maximum d’exemples, avec une pédagogie orientée carnets (Jupyter) et une insistance bienvenue sur la reproductibilité.
Pour MIASHS, l’intérêt est double : gagner en autonomie sur Python sans quitter son terrain (enquêtes, bases administratives, corpus) et découvrir un écosystème moderne (NumPy, pandas, matplotlib, GeoPandas, spaCy) qui ouvre la porte à des projets ambitieux. L’ouvrage rappelle pourquoi programmer en SHS : tracer ses traitements, itérer plus vite, documenter. C’est un excellent tremplin pratique et francophone.
Comment l’utiliser ?
- Travaillez d’abord en notebooks (Jupyter) ; convertissez ensuite en scripts.
 - Emballez chaque TP dans un projet structuré (data/, notebooks/, src/, reports/).
 - Recodez vos routines récurrentes en fonctions réutilisables (import, recodage, graphes).
 - Rédigez un README qui permet à un camarade de relancer vos analyses.
 - Refaites une même figure/table dans R et Python pour comparer.
 
7. Bases de données – Concepts, utilisation et développement (Dunod, 5e édition, 2022)

Disponible sur Amazon Disponible à la Fnac
La MIASHS moderne ne vit pas sans bases de données. Ce manuel propose un tour complet : modèle relationnel, normalisation, SGBD, SQL du basique à l’avancé, puis méthodes de conception (entité-association, UML, schéma logique/physique), sans oublier un panorama des NoSQL et un chapitre orienté analyse de données.
L’approche “concepts → usage → développement” est très adaptée au niveau licence : comprendre les principes (schémas, contraintes, clés), pratiquer (requêtes, jointures, agrégats, fenêtres), et savoir concevoir une base propre pour un mini-projet. L’accent mis sur la qualité des schémas et la discipline de modélisation vous évitera quantité de soucis ; les exemples SQL sont réutilisables tels quels.
Comment l’utiliser ?
- Faites les chapitres SQL dans un SGBD réel (PostgreSQL/MariaDB) et archivez vos scripts.
 - Avant de créer une table, rédigez le MCD puis le MLD.
 - Montez un petit jeu d’essai et écrivez des tests (contraintes, clés, triggers simples).
 - Mesurez vos requêtes (EXPLAIN) et notez l’effet d’un index.
 - Terminez par un mini-projet : schéma + 10 requêtes métier + 3 vues matérialisées.
 
8. Algorithmique – Cours avec 957 exercices et 158 problèmes (Dunod, 3e édition, 2010)

Disponible sur Amazon Disponible à la Fnac
Traduction française du CLRS, cette encyclopédie raisonnée des algorithmes reste un repère pour comprendre les outils derrière l’analyse de données : structures (listes, tas, tables de hachage), tri, recherche, graphes (BFS/DFS, Dijkstra), programmation dynamique, diviser-pour-régner, complexité, NP-complétude.
Le livre ne se lit pas “d’une traite” : on y pioche, selon les cours et projets, les chapitres utiles. Les présentations en pseudo-code et les preuves donnent un cadre rigoureux, mais les figures et exemples rendent l’ensemble abordable dès la L2 pour qui a déjà programmé. Ce n’est pas un manuel “à tout faire”, plutôt une boîte à concepts : comprendre les coûts (O(n log n)), choisir une structure, et lier un algorithme à un cas concret. Les problèmes de fin de chapitre sont exigeants mais formateurs.
Comment l’utiliser ?
- Commencez par tri, structures, complexité ; codez trois variantes de tri et profilez-les.
 - Choisissez quatre problèmes “moyens” et rédigez la solution (preuve + pseudo-code + implémentation).
 - Tenez une fiche de complexité (coûts amortis, classes usuelles, arguments standards).
 - Reliez chaque algorithme à un cas MIASHS (Dijkstra → itinéraires, DP → allocation).
 - En binôme : expliquez un algorithme jusqu’à ce que votre pair puisse le recoder.
 
Conseils de travail
- Planifiez : associez chaque matière à “son” livre (ex. Proba/Stats → Saporta ; SQL → Hainaut) et alternez théorie/TP.
 - Script d’abord : tout résultat produit à la main devrait être reproductible (R/Python + données + README).
 - Tenez un journal d’hypothèses : en économétrie comme en data analysis, notez ce que vous supposez et vérifiez-le.
 - Montez des mini-projets mensuels (import → nettoyage → modèle → visualisation → note synthétique).
 - Soyez sobres : peu de livres, très bien travaillés ; mieux vaut maîtriser 3–4 ouvrages que collectionner.