{"id":15480,"date":"2021-08-11T11:31:29","date_gmt":"2021-08-11T11:31:29","guid":{"rendered":"https:\/\/timi.eu\/?p=15480"},"modified":"2022-01-25T16:33:20","modified_gmt":"2022-01-25T16:33:20","slug":"quel-est-le-meilleur-processeur-pour-la-data-science","status":"publish","type":"post","link":"https:\/\/timi.eu\/fr\/blog-fr\/news-fr\/quel-est-le-meilleur-processeur-pour-la-data-science\/","title":{"rendered":"Quel est le meilleur processeur pour la Data Science?"},"content":{"rendered":"\n<div\n\t role=\"navigation\" aria-label=\"S\u00e9lecteur de langue\" class=\"wpml-ls-statics-shortcode_actions wpml-ls wpml-ls-legacy-dropdown js-wpml-ls-legacy-dropdown\">\n\t<ul>\n\t\t<li class=\"wpml-ls-slot-shortcode_actions wpml-ls-item wpml-ls-item-fr wpml-ls-current-language wpml-ls-item-legacy-dropdown\">\n\t\t\t<a href=\"#\" hreflang=\"\" lang=\"\" class=\"js-wpml-ls-item-toggle wpml-ls-item-toggle\" aria-current=\"page\" aria-expanded=\"false\" aria-controls=\"wpml-ls-submenu-default\" aria-label=\"S\u00e9lecteur de langue, appuyez sur tabulation pour naviguer vers d&#039;autres langues\" title=\"Passer \u00e0 Fran\u00e7ais\">\n\t\t\t\t                                    <img\n            class=\"wpml-ls-flag\"\n            src=\"https:\/\/timi.eu\/wp-content\/plugins\/sitepress-multilingual-cms\/res\/flags\/fr.svg\"\n            alt=\"\"\n            loading=\"lazy\"\n            width=18\n            height=12\n    \/><span class=\"wpml-ls-native\">Fran\u00e7ais<\/span><\/a>\n\n\t\t\t<ul id=\"wpml-ls-submenu-default\" class=\"wpml-ls-sub-menu\">\n\t\t\t\t\n\t\t\t\t\t<li class=\"wpml-ls-slot-shortcode_actions wpml-ls-item wpml-ls-item-en wpml-ls-first-item\">\n\t\t\t\t\t\t<a href=\"https:\/\/timi.eu\/\" hreflang=\"en\" lang=\"en\" class=\"wpml-ls-link\" aria-label=\"Passer \u00e0 Anglais\" title=\"Passer \u00e0 Anglais\">\n\t\t\t\t\t\t\t                                    <img\n            class=\"wpml-ls-flag\"\n            src=\"https:\/\/timi.eu\/wp-content\/plugins\/sitepress-multilingual-cms\/res\/flags\/en.svg\"\n            alt=\"\"\n            loading=\"lazy\"\n            width=18\n            height=12\n    \/><span class=\"wpml-ls-display\">Anglais<\/span><\/a>\n\t\t\t\t\t<\/li>\n\n\t\t\t\t\n\t\t\t\t\t<li class=\"wpml-ls-slot-shortcode_actions wpml-ls-item wpml-ls-item-es\">\n\t\t\t\t\t\t<a href=\"https:\/\/timi.eu\/es\/\" hreflang=\"es\" lang=\"es\" class=\"wpml-ls-link\" aria-label=\"Passer \u00e0 Espagnol\" title=\"Passer \u00e0 Espagnol\">\n\t\t\t\t\t\t\t                                    <img\n            class=\"wpml-ls-flag\"\n            src=\"https:\/\/timi.eu\/wp-content\/plugins\/sitepress-multilingual-cms\/res\/flags\/es.svg\"\n            alt=\"\"\n            loading=\"lazy\"\n            width=18\n            height=12\n    \/><span class=\"wpml-ls-display\">Espagnol<\/span><\/a>\n\t\t\t\t\t<\/li>\n\n\t\t\t\t\n\t\t\t\t\t<li class=\"wpml-ls-slot-shortcode_actions wpml-ls-item wpml-ls-item-nl\">\n\t\t\t\t\t\t<a href=\"https:\/\/timi.eu\/nl\/\" hreflang=\"nl\" lang=\"nl\" class=\"wpml-ls-link\" aria-label=\"Passer \u00e0 N\u00e9erlandais\" title=\"Passer \u00e0 N\u00e9erlandais\">\n\t\t\t\t\t\t\t                                    <img\n            class=\"wpml-ls-flag\"\n            src=\"https:\/\/timi.eu\/wp-content\/plugins\/sitepress-multilingual-cms\/res\/flags\/nl.svg\"\n            alt=\"\"\n            loading=\"lazy\"\n            width=18\n            height=12\n    \/><span class=\"wpml-ls-display\">N\u00e9erlandais<\/span><\/a>\n\t\t\t\t\t<\/li>\n\n\t\t\t\t\n\t\t\t\t\t<li class=\"wpml-ls-slot-shortcode_actions wpml-ls-item wpml-ls-item-ru wpml-ls-last-item\">\n\t\t\t\t\t\t<a href=\"https:\/\/timi.eu\/ru\/\" hreflang=\"ru\" lang=\"ru\" class=\"wpml-ls-link\" aria-label=\"Passer \u00e0 Russe\" title=\"Passer \u00e0 Russe\">\n\t\t\t\t\t\t\t                                    <img\n            class=\"wpml-ls-flag\"\n            src=\"https:\/\/timi.eu\/wp-content\/plugins\/sitepress-multilingual-cms\/res\/flags\/ru.svg\"\n            alt=\"\"\n            loading=\"lazy\"\n            width=18\n            height=12\n    \/><span class=\"wpml-ls-display\">Russe<\/span><\/a>\n\t\t\t\t\t<\/li>\n\n\t\t\t\t\t\t\t<\/ul>\n\n\t\t<\/li>\n\n\t<\/ul>\n<\/div>\n\n\n\n<h1 class=\"wp-block-heading\">Quel est le meilleur processeur pour la data science?<\/h1>\n\n\n\n<p>Une question r\u00e9currente sur de nombreux blogs consacr\u00e9s \u00e0 la Data Science est la suivante : \u00ab\u00a0Quel ordinateur recommanderiez-vous pour faire de la Data Science?\u00a0\u00bb.<br>La question est tr\u00e8s int\u00e9ressante, car il n&rsquo;y a pas une seule r\u00e9ponse \u00e0 cette question. Ce qui est s\u00fbr, c&rsquo;est que la marque importe peu: Dans tous les cas, il faut un disque SSD (et faire des backups!), minimum 8 GB de RAM, et un bon choix de processeur. Le choix du CPU est le plus complexe.<\/p>\n\n\n\n<p><strong>Note<\/strong>: Il faut faire attention \u00e0 la fa\u00e7on dans le SSD est connect\u00e9 \u00e0 votre \u00ab\u00a0Serveur Cloud\u00a0\u00bb. Par exemple, chez Amazon\/Azure&amp;GCP les SSD sont syst\u00e9matiquement connect\u00e9s aux serveurs clouds via un cable \u00e9thernet qui limite le d\u00e9bit en lecture\/\u00e9criture \u00e0 100 MByte\/sec (c&rsquo;est une mauvaise vitesse, similaire \u00e0 un simple HDD). Cette m\u00e9thode de connection \u00e9limine totalement le grand avantage inh\u00e9rent aux supports SSD: leur vitesse. En effet, un SSD de type NVMe qui est connect\u00e9 \u00ab\u00a0normalement\u00a0\u00bb (c\u00e0d sans passer par un cable \u00e9thernet) aura une vitesse de lecture\/\u00e9criture autour de 3500 MByte\/sec (et pas 100 MByte\/sec comme sur mazon\/Azure&amp;GCP !). Nous vous recommandons le <a href=\"https:\/\/www.hetzner.com\/dedicated-rootserver\/ax101\" target=\"_blank\" rel=\"noopener\">serveur Ax101 de chez Hetzner<\/a> (un fournisseur cloud allemand, c&rsquo;est un serveur avec un prix fixe de 111\u20ac\/mois) car les disques SSD inclus dans ces serveurs ont une une vitesse de lecture\/\u00e9criture normale comprise entre 1500 et 2500 MByte\/sec.<\/p>\n\n\n\n<p>Si vous pr\u00e9voyez de travailler avec une serveur dans un Cloud Public (notez que dans la plupart des cas, cela vous co\u00fbtera beaucoup plus cher que d&rsquo;acheter un bon PC), n&rsquo;importe quel laptop fera l&rsquo;affaire puisque votre laptop ne fera pas de calcul (il sera juste utilis\u00e9 pour se connecter au serveur cloud). Par contre, essayez tout de m\u00eame de choisir un serveur cloud qui r\u00e9ponds aux conseils donn\u00e9s dans cet article : il existe maintenant des solutions de cloud computing qui fournissent d&rsquo;assez bonnes machines \u00ab\u00a0bare metal\u00a0\u00bb !<\/p>\n\n\n\n<p>Si vous comptez travailler principalement sur des images ou des videos, il vous faudra un GPU solide, et probablement un \u00ab\u00a0serveur cloud optimis\u00e9 GPU\u00a0\u00bb: Dans cette situation, le calcul distribu\u00e9 prend tout son sens! Google sera probablement votre meilleure option. <\/p>\n\n\n\n<p>De nos jours, la plupart des algorithmes disponibles fonctionnent en \u00ab\u00a0single core\u00a0\u00bb, en particulier quand on utilise des solutions open-source comme R ou Python. Il faudra d\u00e8s lors surtout prioriser la s\u00e9lection d&rsquo;un CPU rapide en \u00ab\u00a0single-thread\u00a0\u00bb (ou \u00ab\u00a0mono thread\u00a0\u00bb). Python est d\u00e9j\u00e0 particuli\u00e8rement lent, et si vous lui donnez un CPU avec de faibles performances en single thread, vous allez vraiment vous rendre la vie trop compliqu\u00e9e. Au final, il n&rsquo;y a que peu de cas dans lesquels la distribution des calculs sur plusieurs machines physique est int\u00e9ressante, et dans tous les cas la loi d&rsquo;Amdahl (qui s&rsquo;applique aux calculs distribu\u00e9s) ne joue pas en votre faveur! Bien que R soit g\u00e9n\u00e9ralement plus rapide que Python (seulement s&rsquo;il est bien programm\u00e9, en favorisant <em>lapply<\/em> pour faire les boucles), la plupart des op\u00e9rations ne sont pas non plus multithread\u00e9es, et avoir de nombreux cores\/threads (axe de Y dans les graphiques suivants) ne sera pas utile. Il est toutefois possible de parall\u00e9liser les calculs en multithread avec openR ou le package doParallel, par exemple. &#8230;Mais la grande majorit\u00e9 des data scientistes travaillent en \u00ab\u00a0single thread\u00a0\u00bb (en tout cas lors de la phase exploratoire). Une exception cependant: certains algorithmes (comme xgBoost) sont parall\u00e9lis\u00e9s et avoir plusieurs coeurs pour cette op\u00e9ration est relativement int\u00e9ressant!<\/p>\n\n\n\n<p>Si vous utilisez Anatella comme plateforme de data science, vous savez a quel point il est simple de traiter des tables avec des milliards de lignes sur votre PC. Le choix du CPU ne sera par contre pas trivial. Par d\u00e9faut, un graphe Anatella tourne sur un seul coeur (plus exactement: sur une seule thread). Il est toutefois possible d&rsquo;optimiser l&rsquo;ex\u00e9cution d&rsquo;un graphe pour utiliser plusieurs c\u0153urs (par exemple en ajustant les options des boites loopAnatellaGraphs2 ou loopAnatellaGraphsAdv2) ou en utilisant les fonctionnalit\u00e9s de multi-threading. Mais, dans 99% des cas, Anatella est d\u00e9j\u00e0 tellement rapide en single-thread que ce ne sera pas n\u00e9cessaire. Par contre, quand la volum\u00e9trie augmente, ou que la performance maximale est n\u00e9cessaire, avoir plusieurs c\u0153urs devient int\u00e9ressant. &#8230;Mais sans d\u00e9passer les 32 c\u0153urs! &#8230;car la loi d&rsquo;Amdahl nous enseigne que c&rsquo;est inutile d&rsquo;aller plus haut! (voir <a href=\"\/blog\/cloud\">ici<\/a> pour plus de d\u00e9tails sur la loi d&rsquo;Amdahl). <\/p>\n\n\n\n<p>Le Siteweb \u00ab\u00a0CpuBenchmark\u00a0\u00bb est tr\u00e8s utile pour comparer les CPU et d\u00e9terminer quel est le meilleur CPU. Malheureusement, la comparaison de diff\u00e9rents CPU selon plusieurs crit\u00e8res n&rsquo;est pas \u00e9vident avec les outils mis a disposition directement sur le siteweb. Nous allons donc utiliser Anatella pour d\u00e9terminer quel processeur donnera les meilleures performances avec la Suite TIMi!<\/p>\n\n\n\n<p>Pour bien choisir notre CPU, nous devons consid\u00e9rer deux dimensions: <strong>single thread speed<\/strong> (pour la plupart des op\u00e9rations) et <strong>multi-thread speed<\/strong> (parce que quand le volume de donn\u00e9es augmente, nous cr\u00e9erons des processus&amp;graphes qui peuvent se lancer en parall\u00e8le, et TIMi Modeler utilise plusieurs c\u0153urs). Pour la r\u00e9alisation de ce script, nous avons t\u00e9l\u00e9charg\u00e9 les informations disponibles sur: <\/p>\n\n\n\n<ul><li><a href=\"https:\/\/www.cpubenchmark.net\/singleThread.html\">https:\/\/www.cpubenchmark.net\/singleThread.html<\/a><\/li><li><a href=\"https:\/\/www.cpubenchmark.net\/high_end_cpus.html\">https:\/\/www.cpubenchmark.net\/high_end_cpus.html<\/a><\/li><\/ul>\n\n\n\n<p>Le script Anatella est disponible <a href=\"https:\/\/share.mailbox.org\/ajax\/share\/0c9e7059089208f4c9b9d5b892084dc4be82a379a56a4c9e\/1\/8\/NTM3Mw\/NTM3My85ODIyNw\">ici<\/a> (les fichiers HTML sont inclus, mais vous pouvez les mettre a jour). Si vous lancez ce graphe, vous obtiendrez un scatter plot, assez basique dans lequel les 175 meilleurs CPU sont visibles:<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" loading=\"lazy\" width=\"1024\" height=\"532\" src=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot1-1024x532.png\" alt=\"\" class=\"wp-image-15441\" srcset=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot1-1024x532.png 1024w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot1-600x312.png 600w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot1-300x156.png 300w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot1-768x399.png 768w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot1-1536x798.png 1536w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot1.png 1920w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption>Top 100 high End and Single Thread CPUs<\/figcaption><\/figure>\n\n\n\n<p>Il est int\u00e9ressant de constater qu&rsquo;il semble y avoir un groupe de \u00ab\u00a0CPU haute performance\u00a0\u00bb au del\u00e0 du score de 3000. Puisque la vitesse en \u00ab\u00a0single thread\u00a0\u00bb est le goulot d&rsquo;\u00e9tranglement principal, nous pourrons plus tard zoomer sur ces processeurs (avec un score en single thread sup\u00e9rieur \u00e0 3000). Ajoutons quelques options \u00e0 notre graphique:<\/p>\n\n\n\n<div class=\"wp-block-image\"><figure class=\"aligncenter size-large is-resized\"><img decoding=\"async\" loading=\"lazy\" src=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/PlotOptions.png\" alt=\"\" class=\"wp-image-15445\" width=\"292\" height=\"126\" srcset=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/PlotOptions.png 558w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/PlotOptions-300x130.png 300w\" sizes=\"(max-width: 292px) 100vw, 292px\" \/><\/figure><\/div>\n\n\n\n<p>Nous voulons mieux visualiser la diff\u00e9rence entre AMD et Intel, nous allons donc choisir un s\u00e9rie de couleur avec la variable \u00ab\u00a0Make\u00a0\u00bb. Pour avoir une id\u00e9e relative du prix, nous choisissons la variable \u00ab\u00a0log(Price)\u00a0\u00bb comme taille des points. Nous allons \u00e9galement visualiser le nom des processeurs, maintenant qu&rsquo;il y en a moins, il n&rsquo;y a pas de raison de ne voir qu&rsquo;un index.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" loading=\"lazy\" width=\"1024\" height=\"532\" src=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot4-1024x532.png\" alt=\"\" class=\"wp-image-15491\" srcset=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot4-1024x532.png 1024w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot4-600x312.png 600w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot4-300x156.png 300w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot4-768x399.png 768w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot4-1536x798.png 1536w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot4.png 1920w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption>Focus on high Single Thread Performance<\/figcaption><\/figure>\n\n\n\n<p>Le graphique reste un peu confus, mais nous permet d\u00e9j\u00e0 de voir quelques groupes int\u00e9ressants. La famille AMD Ryzen Threadrippers offre des produits incroyables en termes de vitesse en multi-thread, ce qui les rend les plus int\u00e9ressant  pour faire des serveurs web (sp\u00e9cialis\u00e9s pour servir des pages http) mais pas pour r\u00e9aliser du traitement de donn\u00e9es ou de la data science. Regardons de plus pr\u00e8s les processeurs avec un score de \u00ab\u00a0plus de 2000\u00a0\u00bb en single thread:<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" loading=\"lazy\" width=\"1024\" height=\"560\" src=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot3-1-1024x560.png\" alt=\"\" class=\"wp-image-15453\" srcset=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot3-1-1024x560.png 1024w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot3-1-600x328.png 600w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot3-1-300x164.png 300w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot3-1-768x420.png 768w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/plot3-1.png 1086w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption>The best CPU for Data Science<\/figcaption><\/figure>\n\n\n\n<p>Et nous avons un gagnant!L&rsquo;<strong>AMD Ryzen 9 5900 <\/strong>est clairement le processeur qui nous en donne le plus pour notre argent! Et si les nouveaux Intel <strong>i9-11900K<\/strong>, <strong>i9-11900KF<\/strong> et <strong>i9-11900F<\/strong> sont marginalement meilleurs en terme de vitesse single thread, la valeur ajout\u00e9e par la capacit\u00e9 mutli-thread des Ryzen 9 les rend moins attractifs! <\/p>\n\n\n\n<p>Si le budget n&rsquo;est pas un probl\u00e8me, le meilleur de tous les CPU pour Anatella est le <strong>AMD Ryzen 9 5950x <\/strong>! Il a un des meilleurs scores en performance single thread, et offre aussi une des meilleures performance en multithread grace a ses 32 c\u0153urs. Donc, m\u00eame pour les op\u00e9rations demandant du calcul distribu\u00e9 (comme c&rsquo;est le cas pour les graphes anatella optimis\u00e9s) vous obtiendrez la meilleure vitesse possible. Je ne pensais pas dire cela un jour mais, oui: <strong>vive AMD<\/strong>! <\/p>\n\n\n\n<p>Pour les applications d\u00e9velopp\u00e9es en R ou Python, il semble que le MacBook soit votre meilleure option. <strong>Mais attention,<\/strong> si vous utilisez les routines d\u2019alg\u00e8bre lin\u00e9aire (ou n&rsquo;importe quelle librairie int\u00e9ressante, en fait) dans R ou Python, vous devrez utiliser un processeur compatible Intel (donc Intel ou AMD) qui supporte les instruction vectoris\u00e9es du CPU (SIMD instructions set) pour avoir les meilleures performances. Le M1 n&rsquo;ayant pas ces caract\u00e9ristiques, m\u00eame si il offre une fr\u00e9quence sup\u00e9rieure, les performances seront inf\u00e9rieures. Si vous restez un pur utilisateur PC ou Windows, alors ces processeurs <strong>i9 de Intel <\/strong>sont pour vous. <\/p>\n\n\n\n<p><strong>Note<\/strong>: En ao\u00fbt 2021, le meilleur CPU pour faire de la data science (c\u00e0d le <strong>AMD Ryzen 9 5950x <\/strong>) \u00e9tait disponible uniquement dans les <a href=\"https:\/\/www.hetzner.com\/dedicated-rootserver\/ax101\" target=\"_blank\" rel=\"noopener\">serveurs clouds de chez Hetzner<\/a> (un fournisseur cloud allemand) au prix fixe de 111\u20ac\/mois!<\/p>\n\n\n\n<p><strong>Note<\/strong>: Ces r\u00e9sultats se basent sur des donn\u00e9es de ao\u00fbt 2021. Le march\u00e9 \u00e9volue rapidement, vous pouvez obtenir des r\u00e9sultats diff\u00e9rents si vous mettez les donn\u00e9es \u00e0 jour !<\/p>\n\n\n\n<p><strong>D\u00e9tails techniques: <\/strong><\/p>\n\n\n\n<p>Ce petit script combine des techniques de web scraping et text mining en Anatella. La premi\u00e8re partie du script consiste a charger les donn\u00e9es, les url, noms et performance de chaque CPU, pour les meilleurs CPU en single thread et en multi thread. Comme ils sont ordonn\u00e9s, nous pouvons garder le top 100 de chaque cat\u00e9gorie, retirer les doublons, et continuer l&rsquo;analyse.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" loading=\"lazy\" width=\"1024\" height=\"191\" src=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script1-1024x191.png\" alt=\"\" class=\"wp-image-15457\" srcset=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script1-1024x191.png 1024w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script1-600x112.png 600w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script1-300x56.png 300w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script1-768x143.png 768w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script1.png 1032w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>La deuxi\u00e8me \u00e9tape est de t\u00e9l\u00e9charger les URL. Pour cela, nous utilisons l&rsquo;action <strong>MultipleDownAndUpload<\/strong>, qui prend simplement en entr\u00e9e l&rsquo;URL \u00e0 t\u00e9l\u00e9chager et le nom du fichier local correspondant:<\/p>\n\n\n\n<div class=\"wp-block-image\"><figure class=\"aligncenter size-large is-resized\"><img decoding=\"async\" loading=\"lazy\" src=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script2.png\" alt=\"\" class=\"wp-image-15461\" width=\"195\" height=\"79\"\/><\/figure><\/div>\n\n\n\n<p>Finalement, nous allons extraire des pagewebs t\u00e9l\u00e9charg\u00e9es toutes les informations qui nous servent, en utilisant l&rsquo;action <strong>extractRegExpPosition<\/strong>. Nous allons extraire les valeurs associ\u00e9es a un label, lui donner un nom, et organiser l&rsquo;information dans une grande table afin de cr\u00e9er le graphique. Enfin, nous saucons la table dans un fichier Excel.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" loading=\"lazy\" width=\"1024\" height=\"159\" src=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script3-1024x159.png\" alt=\"\" class=\"wp-image-15465\" srcset=\"https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script3-1024x159.png 1024w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script3-600x93.png 600w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script3-300x47.png 300w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script3-768x120.png 768w, https:\/\/timi.eu\/wp-content\/uploads\/2021\/06\/script3.png 1252w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n","protected":false},"excerpt":{"rendered":"Quel est le meilleur processeur pour la data science? Une question r\u00e9currente sur de nombreux blogs consacr\u00e9s \u00e0 la Data Science est la suivante : \u00ab\u00a0Quel ordinateur recommanderiez-vous pour faire de la Data Science?\u00a0\u00bb.La question est tr\u00e8s int\u00e9ressante, car il n&rsquo;y a pas une seule r\u00e9ponse \u00e0 cette question. Ce qui est s\u00fbr, c&rsquo;est que","protected":false},"author":5,"featured_media":15652,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[248,183,250],"tags":[],"_links":{"self":[{"href":"https:\/\/timi.eu\/fr\/wp-json\/wp\/v2\/posts\/15480"}],"collection":[{"href":"https:\/\/timi.eu\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/timi.eu\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/timi.eu\/fr\/wp-json\/wp\/v2\/users\/5"}],"replies":[{"embeddable":true,"href":"https:\/\/timi.eu\/fr\/wp-json\/wp\/v2\/comments?post=15480"}],"version-history":[{"count":29,"href":"https:\/\/timi.eu\/fr\/wp-json\/wp\/v2\/posts\/15480\/revisions"}],"predecessor-version":[{"id":17154,"href":"https:\/\/timi.eu\/fr\/wp-json\/wp\/v2\/posts\/15480\/revisions\/17154"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/timi.eu\/fr\/wp-json\/wp\/v2\/media\/15652"}],"wp:attachment":[{"href":"https:\/\/timi.eu\/fr\/wp-json\/wp\/v2\/media?parent=15480"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/timi.eu\/fr\/wp-json\/wp\/v2\/categories?post=15480"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/timi.eu\/fr\/wp-json\/wp\/v2\/tags?post=15480"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}