Chère IA, dessine-moi un logo

Cet article est paru dans Acteurs de la Filière Graphique n°141 (mars 2023)


Lorsque sur la scène du Software Village du salon C!Print, Aurélien Vaysset (Co-fondateur et CEO – Emersya) présente quelques croquis d’illustration générés par une IA, littéralement « en dix secondes », sur la base d’un brief de quelques lignes, on saisit tout du dilemme éthique vertigineux que recouvre l’usage – ou non – des techniques de création automatique et assistée, dans le domaine du design graphique.

Les outils sollicités n’en sont pourtant encore qu’à leurs prémices, mais il faut dire combien les résultats obtenus sont d’ores et déjà bluffants de pertinence et propres à répondre à une foule de demandes « modestes » qui n’exigent pas une authenticité créative inattaquable. Dit très simplement : à condition de décrire précisément votre requête, en des termes aussi justes que détaillés, un Midjourney, un Dall-E, un Imagen ou un Stable Diffusion pourront abattre en un clic le travail d’une journée chez un designer graphique chevronné. De quoi prendre le sujet au sérieux.

« Pourquoi ne pas réfléchir à créer nos propres outils et les entraîner avec nos propres ressources, pour soutenir notre processus créatif ? » Emmanuel Young (Champion du monde Worldskills – Arts Graphiques)

L’Intelligence Artificielle, pire amie ou meilleure ennemie ?

Plutôt que de s’en faire une ennemie imbattable à son propre jeu (car une IA ira toujours plus vite que vous, pour beaucoup moins cher), le défi pourrait être de s’en arroger les services pour s’en faire une alliée nécessairement cadrée et régulée. « Je ne m’en sers pas encore » reconnaît Robin Gillet, designer graphique (Studio Ellair), conscient toutefois que ça ne saurait durer : « C’est quelque chose qui émerge et qui fera forcément partie de nos métiers », le piège de rejeter complètement cette perspective revenant en effet peu ou prou à sombrer dès à présent dans le déni. Mieux encore, on sent chez la jeune génération de designers graphiques, très avantageusement représentée en la personne d’Emmanuel Young, médaillé d’Or des Worldskills 2022 à l’échelle internationale, une ouverture d’esprit sur ces questions, à mille lieues de tout réflexe défensif caricatural. « C’est à nous de nous emparer de l’IA. Pourquoi ne pas réfléchir à créer nos propres outils et les entraîner avec nos propres ressources, pour soutenir notre processus créatif ? » s’interroge-t-il, dans une démarche d’appropriation qui témoigne déjà d’une relative acceptation confinant à la lucidité. Car s’il est une obsession qui transpire des réponses de ces jeunes graphistes, c’est celle de ne pas se faire déposséder d’une sorte de légitimité créative. D’où cette question récurrente : comment faire de l’IA non pas un procédé substitutif, mais un pur soutien à la création ? Une nuance capitale, qui nécessitera le soutien bienveillant de clients qui pourraient hélas être tentés de durcir leur approche, au motif que Dall-E, Midjourney ou tant d’autres leur mâchent le travail. Un raccourci que Robin Gillet qualifie de « malsain », notamment parce qu’il méconnaît la nature profonde du travail d’illustration. « Contrairement à ce que l’on peut penser, l’aspect technique de l’illustration n’est pas ce qui est le plus long. Ça ne prend souvent que quelques heures. En revanche, je peux passer plusieurs jours sur de la recherche d’idées » précise Robin Gillet, qui met là justement le doigt sur la nécessité de ne pas mépriser ce temps de réflexion assez intangible, en cela qu’il sollicite justement la sensibilité humaine. « Quand un client va travailler avec un graphiste ou un illustrateur, il y a un échange qui se crée où on partage sa culture, son histoire. Il y a quelque chose qui relève du feeling » commente-t-il, ajoutant que « l’IA s’appuie forcément sur de l’aléatoire » et donc ne pourra au mieux que simuler des rapports humains. Or, ce sont ces rapports qui peuvent générer de l’émotion et être la sève d’une inspiration créative « unique », là où une IA agit rationnellement en compilant – de façon plus ou moins heureuse, d’ailleurs – de la data.

« ChatGPT vous construit une réponse déjà toute faite, toute biaisée et possiblement erronée soit-elle, avec les apparats d’une vérité ordonnée. »

Un brief de quelques mots soumis à des programmes d’Intelligence Artificielle a permis d’obtenir en quelques secondes des colibris quasi-exploitables en l’état.

Se servir des IA, c’est avant tout savoir s’en protéger

Le risque prégnant d’un recours illimité et quasi-systématique aux outils d’IA génératives tient un mot : celui de la désintermédiation. Car faire aveuglément confiance à un programme algorithmique désincarné, c’est donc effectivement lui confier des décisions, des choix et des interprétations, sans vérification. L’excuse pour y céder est toute trouvée : il s’agit de gagner du temps. « C’est à nous d’instruire les entreprises, nous sommes avant tout un métier de culture. Nous devons nous renseigner sur énormément de choses et nous imprégner de références artistiques pour les faire passer au client » explique Robin Gillet, qui tient légitimement à garder le contrôle sur son travail. Car plus on délègue cette couche nécessaire de recherches, de réflexions et d’analyses, moins on sera en capacité de comprendre le sens de ce que l’on propose. Or, une IA n’est qu’un miroir : elle ne sera « intelligente » que si nous le sommes avant elle, parce que « nous » sommes littéralement ce qui la nourrit. Drôle de paradoxe en effet que de risquer de s’appauvrir en recourant – mal – à une technologie qui voudrait nous délester de tâches dites « inintéressantes » ou « chronophages ». La chose est certes tentante, mais la pente vers laquelle elle pourrait nous emmener est d’ores et déjà identifiée et elle est dangereuse : quand vous posez une question à un moteur de recherche, ce dernier vous liste un ensemble de contenus et de ressources identifiés par mots-clés qu’il vous reviendra ensuite de trier, en ce sens que juger de leur pertinence relèvera de vos propres arbitrages. A contrario, un ChatGPT vous construit une réponse déjà toute faite, toute biaisée et possiblement erronée soit-elle, avec les apparats d’une vérité ordonnée. Le plus conscient de ce problème s’appelle Sam Altman, fondateur d’OpenAI (soit l’entreprise derrière Chat-GPT), qui nous alerte clairement sur sa propre création : « ChatGPT est incroyablement limité, mais assez bon pour certaines choses et pour créer une impression de grandeur. C’est une erreur de s’y fier pour quoi que ce soit d’important ». Nous voilà donc prévenus. Cela ne veut évidemment pas dire qu’il faudra rejeter en bloc tout de cette technologie, de toute façon déjà existante et opérante, mais l’essentiel du cadrage éthique qui nous fait face devra maintenant nécessairement prendre des formes réglementaires. Que Google soit déjà tenté d’évoluer vers une IA générative pour traiter les requêtes soumises à son moteur de recherche (c’est bien là le sens de la création de « Bard », sorte de réponse à ChatGPT) prouve que le débat est de nécessité actuelle. Voire urgente.

Hunkeler Innovation Days 2023 – Automatiser plus et mieux

Cet article est paru dans Acteurs de la Filière Graphique n°141 (mars 2023)


Avec 6700 visiteurs massés dans un espace relativement contraint, l’édition 2023 des Hunkeler Innovation Days confirme le succès grandissant d’un événement qui fêtait ses dix ans en 2022. L’UNIIC y embarquait – comme en 2019 – une délégation d’une trentaine d’imprimeurs pour s’enquérir sur place (au Centre d’Exposition de Lucerne, en Suisse) des avancées matérielles et logicielles qui s’opèrent dans l’univers des lignes de production numériques. Avec toujours ce même mot d’ordre : automatiser plus et mieux.

« La vision d’Hunkeler est simple : c’est celle d’une industrie totalement automatisée.»
Mickaël Hiblot (Directeur des ventes Hunkeler)

L’événement porte indéniablement quelque chose d’atypique dans la mesure où, de façon transparente et jusque dans son intitulé, il est porté par un fournisseur de matériel intercalé en amont et en aval du travail d’impression, l’offre ‘brandée’ Hunkeler allant en effet des débobineurs de papier en entrée de ligne, jusqu’aux outils de finition en bout de ligne. Un organisateur/fournisseur qui choisit donc de s’entourer de partenaires, mais aussi de simili-concurrents (Duplo, Müller Martini, Horizon etc.), pour construire un salon de solutions et modules aussi complémentaires que possible, sur des marchés, produits et services variés : catalogue, brochure, transpromo, éditique, livre, notice, routage etc. Pari gagné : ce rendez-vous s’est imposé comme l’un des plus engageants dans le paysage événementiel des Industries Graphiques, en une petite décennie. « La vision d’Hunkeler est simple : c’est celle d’une industrie totalement automatisée » nous explique Mickaël Hiblot, son Directeur des ventes. En l’occurrence, personne ne saurait s’extraire d’un mouvement d’automatisation global qui donnera immanquablement à s’observer à la Drupa 2024 (une édition très attendue, huit ans après la précédente au format « physique »), au-delà des seuls segments relatifs à l’impression numérique. Pour autant, c’est bien l’impression numérique qui donne le « La » d’un mouvement qui se précise. Les visiteurs, venus nombreux, ne s’y sont pas trompés…

Une automatisation de plus en plus flexible et permissive

L’automatisation des lignes de production n’apparaît comme une performance louable qu’à la condition de satisfaire à des exigences de variabilité et de flexibilité de plus en plus claires. C’est d’ailleurs dans ce rapport précis automatisation/variabilité que vient se nicher l’essentiel des innovations observées cette année, alors que les discours n’ont pas changé d’un iota. Ne pas arrêter les machines, prévenir les défauts de qualité, éviter les pannes par anticipation et intégrer les opérations de maintenance à la logique de lignes de production ultra-optimisées, tel est le credo martelé par une majorité de fournisseurs depuis l’édition précédente (à minima), tout en promettant des runs avec des changements de contenus, formats, paginations, découpes et pliages à la volée. Tant en impression qu’en finition. Des promesses qui ont pris corps au gré de démonstrations convaincantes tenues sur place, avec de belles nouveautés à la clé : « Chez Laballery, on essaie d’organiser la production en fonction du papier sur lequel nous imprimons. Avec certaines des machines que j’ai vues ici [cf. le module Hunkeler Media changer RX8, NDLR], on peut s’imaginer jongler d’une bobine à l’autre pour passer d’un média à un autre sans arrêter sa ligne de production, gérer en temps réel les demandes de réassorts avec les besoins en papier associés, du collage à la volée jusqu’à la parfaite intégration de la tension des bandes… Les possibilités que ça ouvre sont passionnantes » s’enthousiasme notamment Hubert Pédurand, de passage sur le stand Hunkeler, face à des double-débobineurs qui, demain, « pourraient être triple ou quadruple », nous assure-t-il. Confirmant que les machines offset pourraient elles aussi basculer sur ce type d’équipements en pré/post presse, Mickaël Hiblot tient par ailleurs à souligner que « Hunkeler travaille en open source. Nous voulons pouvoir rendre nos matériels compatibles avec ceux de nos partenaires », indiquant simplement s’assurer de « la validité des systèmes en amont ». Une philosophie qui éclaire jusqu’à l’existence de ce salon, où l’innovation est partagée et irrigue par petites touches l’ensemble des stands, l’objectif étant bien celui-là : construire des lignes de production à sa guise, comme dans un jeu de lego, sans se retrouver bridé par des pièces refusant de s’imbriquer.

« Le salon s’attache à proposer des solutions compatibles et optimisées pour des lignes de production calées à 200 mètres/minute, finition incluse.»

Trop d’automatisation tue-t-il l’expertise de l’imprimeur ?

Au registre des opérations automatisables, sur des lignes de production modulables à souhait – ou presque – on se perd rapidement à énumérer les services proposés par les fournisseurs. Il ne faudrait à ce titre pas oublier combien la dimension software est nourrie par la même obsession, les logiciels de commande, pilotage et de maintenance étant pensés comme le point de départ d’une philosophie unique, visant à tout relier : du traitement prépresse aux dernières opérations de finition. « Notre workflow dynamique de nouvelle génération FreeFlow dispose de capacités prédictives. C’est-à-dire qu’il est capable d’apprendre et de s’adapter. Correctement configuré, il peut même travailler seul, comme un opérateur » assène notamment Hubert Soviche (Xerox). Ainsi en va-t-il également des opérations d’ennoblissement ou d’assistance technique, ce dernier point étant assuré pour le cas de Xerox par « la solution de réalité augmentée CareAR qui, plutôt que de demander à l’opérateur de nous décrire son problème, va lui demander de nous le montrer » résume Isabelle Savin, cheffe de produits et support ventes. Sans collecter de data, nous dit-on, une Intelligence Artificielle (IA) s’attache en effet à analyser des images pour poser des diagnostiques à distance, proposant des aides en forme d’annotations dynamiques et disposant même de ralentis pour identifier précisément les manœuvres potentiellement problématiques. Une logique englobante qui dessine les contours de ce que d’aucuns continuent d’appeler l’industrie 4.0, soit des modèles de production de plus en plus automatisés par interfaces numériques interposées, avec même une touche d’IA pour devancer et minimiser les interventions humaines. Si le discours est bien rôdé et les démonstrations huilées, sûrement faut-il objecter que cette évolution dopée aux algorithmes et aux IA, dont l’intégration ira grandissante, ne doit pas avoir pour effet d’opacifier de trop une mécanique hardware qui doit rester aux mains de l’exploitant industriel. Nous l’écrivions dans une tribune publiée en ces pages voilà bientôt trois ans (cf. Acteurs Graphiques n°131) et nous le redisons volontiers : « De la même façon qu’il serait faux de penser que le prépresse a disparu en impression numérique en même temps que la forme imprimante, sous-entendre que la technicité de l’impression serait dépassée, absorbée par des machines n’exigeant soi-disant plus que de savoir manipuler des potards, c’est prendre le risque de voir disparaître des savoir-faire pourtant précieux ». En l’occurrence, ceux de l’imprimeur.

Une délégation UNIIC était du voyage en Suisse, à Lucerne, pour cette nouvelle édition des Hunkeler Innovation Days.

Qualité contrôlée : « Là n’est plus le débat »

« Nous allons encore trois à quatre fois moins vite en finition qu’en impression » nous disait Steve Levy (Ricoh) en 2019, lors de la précédente édition des Hunkeler Innovation Days. Or, quatre ans plus tard, ce différentiel n’existe encore qu’à la marge et sauf à investir dans des presses qui roulent à 400 mètres/minute (auquel cas il faudra effectivement doubler les lignes de finition pour continuer à imprimer à pleine vitesse), le salon s’attache à proposer des solutions compatibles et optimisées pour des lignes de production calées à 200 mètres/minute. La vitesse ne faisant toutefois pas tout, il est un quasi-consensus que nombre de fabricants ont tenu à mettre en avant : « sur le type de machines que nous exposons ici, la qualité n’est plus un débat » avance notamment Verena Hahn (Canon), au sujet notamment de sa gamme Varioprint. Une assurance que l’on retrouve quasiment trait pour trait chez les autres fabricants de systèmes d’impression, y compris d’ailleurs en dehors des supposées grosses écuries que sont HP, Kodak, Xerox ou Ricoh. « La qualité dépend chez nous de la vitesse d’impression, sachant que sur notre Truepress Jet520HD, nous pouvons aller jusqu’à 150 mètres/minute. Mais nous pouvons imprimer sur tout type de papier, avec une qualité quasi-égale à l’offset » confirme Thomas Lossec (Screen Europe). Si le débat n’est donc plus là, il ne s’est pas déporté très loin… « La qualité est là, mais il faut la contrôler souvent. Le problème que nous avons tous, c’est l’assèchement des têtes d’impression. C’est pourquoi nos machines VPX s’attachent à contrôler la qualité d’impression de manière automatisée toutes les quatre feuilles » précise Verena Hahn pour Canon. Chez Kodak, autre approche : « la Prosper Ultra 520 s’appuie sur un taux d’encrage très dense. Ce sont des encres aqueuses de fabrication Kodak qui comptent environ 70 composants, dont… des antibiotiques ! Pourquoi ? Parce qu’ils permettent de nettoyer les têtes d’impression directement à l’usage » détaille Laurent Mathieu (Directeur des ventes Benelux). Si chacun s’emploie assez naturellement à défendre le caractère écoresponsable d’encres composées à base d’eau (quoiqu’il faudrait bien sûr s’intéresser de près à l’ensemble des composants pour tirer telle conclusion), certains assurant même qu’elles se sont avérées tout à fait désencrables (condition sine qua non pour entrer dans la boucle de valorisation Citeo et ne pas attribuer de malus aux metteurs sur le marché), la question que pose une densité accrue en termes d’encrage – Kodak revendique « 40 milliards de gouttes à la seconde » – est naturellement d’ordre économique : l’impression numérique est-elle toujours victime du coût de ses consommables, et notamment des encres ? La question se pose, à plus forte raison si les exigences de qualité inclinent à en augmenter le volume de consommation…

« Sur le type de machines que nous exposons ici, la qualité n’est plus un débat. » Verena Hahn (Canon)

Les lignes modulaires Hunkeler Starbook ont fait forte impression cette année, autorisant notamment en entrée de ligne changements de bobines à la volée, puis des opérations de production (format, découpe, pliage, collage etc.) variables en « book-to-one » et enfin un traitement logistique automatisé, pour trier jusqu’à 2000 blocs de livres par heure dans différents conteneurs de transport.

Coût des consommables : éternels freins à l’investissement ?

Face à pareilles critiques, les réponses sont peu ou prou les mêmes depuis une douzaine d’années : si les encres sont « chères », c’est parce qu’elles intègrent effectivement des coûts de recherche & développement importants sur ces technologies. Et leur coût n’est soutenable qu’à la condition d’adopter un positionnement stratégique adapté, tout en valorisant sur le plan industriel et organisationnel les gains (de temps, notamment) obtenus par ailleurs : « plus de RIP pour le CTP, fini les plaques aluminium, terminée la chimie, le séquencement de production – je plaque, j’imprime par cahiers, j’attends que ça sèche, je plis mes cahiers, j’assemble mes cahiers, je broche mon livre – est divisé par cinq en durée etc. Au final un livre qui mettait cinq jours à se produire en offset chez Laballery se traite en cinq heures, avec deux fois moins de personnel » témoigne Hubert Pédurand, qui dit toutefois attendre « une hausse globale de la production en jet d’encre pour voir le prix des encres baisser ». Car oui, le sentiment général est malgré tout bien celui-là : les consommables sont encore chers en impression numérique quadri, au regard d’une demande insuffisamment volumique pour s’autoriser toute forme de légèreté, quand il s’agit d’investir dans ce type de matériel. Or, parmi les failles d’un modèle économique inclinant à minimiser les coûts, au regard des dépenses nécessaires pour se fournir en consommables et donc nourrir ses machines, il y a la tentation de réduire sa main d’œuvre. Au premier chef, déjà, parce que c’est ce vers quoi pousse l’automatisation des systèmes de production. « Nos machines sont conçues pour que l’opérateur ait moins de tâches à effectuer que jamais, tout en se déplaçant le moins possible dans l’atelier. Notre volonté est d’automatiser un maximum de réglages, notamment pour les changements de formats » illustre Marc Giustiniani, Directeur commercial France chez BlueCrest, pendant la démo d’une machine de mise sous pli (modèle Epic). S’il ne s’agit encore là que de faciliter le travail des opérateurs, tout le monde en convient : cela aura forcément des effets sur l’emploi. « Le conducteur de demain dirigera des lots de machines » s’avance même à affirmer Mickaël Hiblot, sous-entendant sans faire de mystères que là où il fallait deux à trois techniciens par atelier, il n’en faudra bientôt plus qu’un. Au risque de s’appauvrir humainement ? « L’enjeu, ce sera d’affecter de l’emploi à des tâches à la fois moins pénibles et plus valorisantes, voire à songer à de nouvelles fonctions. Dans ce domaine-là aussi, il faudra innover » poursuit-il. De manière concomitante, il faudra nécessairement penser à construire et organiser le transfert de compétences, de sorte à rendre possible le basculement technologique pour des équipes souvent habituées à travailler sur des outils d’impression/finition d’une tout autre nature. Un défi collectif que ces Hunkeler Innovation Days ont mis en avant de façon concrète, sans même le dire explicitement. Et nul doute que dans un peu plus d’un an maintenant, la Drupa enverra un message semblable…

Comment accéder aux nouvelles aides à l’énergie ?

Les nouvelles aides mises en place début 2023 – soit l’amortisseur électricité pour les TPE et PME, le sur-amortisseur pour les TPE et enfin le bouclier tarifaire pour les TPE qui ne sont pas soumises aux Tarifs Réglementés de Vente (TRV) – sont accessibles à condition de remplir un formulaire unique :

Remplir le formulaire

Précision importante : pour activer les dispositifs de soutien dès la première facture de 2023, ce formulaire doit être renvoyé avant le 31 janvier 2023 par les entreprises à leurs fournisseurs. A défaut et pour une activation différée, le formulaire devra être complété et transmis aux fournisseurs avant le 31 mars 2023. Notez qu’un aide-mémoire mis en ligne par le Medef peut vous guider pour remplir le formulaire d’aide.

Chez Diamant Graphic (Groupe Prenant), la nanographie à l’épreuve du réel

Inaugurée voilà plus de trois ans – fin 2019 – sur le site de Diamant Graphic (Groupe Prenant) à Choisy-le-Roi (94), la presse Landa S10P demeure à ce jour la seule machine dite « nanographique » installée sur le sol français. Machine feuille recto/verso de format 75×105, elle s’exposait encore en 2023 aux yeux de la profession, au gré de deux journées ‘portes ouvertes’ organisées les 18 et 19 janvier derniers, accueillant à la fois une quarantaine d’imprimeurs européens venus observer la presse en conditions de production, ainsi qu’une trentaine de donneurs d’ordre curieux des possibilités offertes par la machine. Un intérêt palpable donc, en dépit de mouvements sociaux qui ont certainement fait jusqu’à deux tiers d’absents.

« Nous sommes avant tout des concepteurs d’encres à nano-pigments »

Dernier cheval de bataille porté par Benny Landa, dont il fit la promotion dès la Drupa 2012, la nanographie se veut être ce procédé intermédiaire, idéal pour les moyennes séries qui ne conviennent ni vraiment aux procédés numériques jet d’encre (tant pour des raisons qualitatives que de plafond de rentabilité de production), ni vraiment aux tirages offset (plus indiqués pour des volumes supérieurs). Par la voix de Jean-Baptiste Bardinet (Global Segment Manager), Landa pourrait ainsi davantage se définir comme « un concepteur et vendeur d’encres à nano-pigments » que comme un véritable constructeur de machines d’impression. Une révélation de prime abord étonnante, qu’il faut en réalité comprendre comme la résultante d’un focus assumé sur les nanotechnologies, l’impression n’étant somme toute qu’une de ses applications possibles. « La nanographie commence par la projection de milliards de gouttelettes de nanoInk sur un blanchet spécial qui transfère l’image. Chaque rangée d’éjecteurs projette sa propre couleur. Chaque gouttelette atterrit à un endroit précis et, en se mêlant à d’autres, finit par créer l’image colorée finale. Lorsque chaque gouttelette atteint le blanchet chauffé, elle commence à s’étaler et perdre son eau, ce qui réduit son épaisseur. Lorsque toute l’eau est évaporée, l’encre est devenue un film polymère ultrafin. Le film de NanoInk ne garde une épaisseur que de 500 nanomètres, soit l’image d’encre la plus mince de tous les processus d’impression existants à ce jour » définissait Benny Landa lui-même, dès 2016 dans les travées de la Drupa. Une technologie qui a ainsi le mérite de déposer très peu d’encres et ce donc sans pénétrer le substrat, avec un séchage quasi-immédiat et la possibilité d’imprimer sur tout type de papier. Si la technique est fluide, reposant d’ailleurs pour partie sur les bâtis d’une machine Komori, des questions pouvaient légitimement être posées quant à ses implications écoresponsables… Qu’en est-il en effet de la désencrabilité du procédé ? « Nous sommes certifiés Ingede11 avec un score de désencrabilité de 98/100 » nous assure-t-on pourtant, Landa ne manquant d’ailleurs pas d’ajouter que ses nanoInk sont des encres aqueuses, dénuées d’huiles minérales. Une précision qui n’est pas anodine, tant les restrictions règlementaires en cours à son sujet invitent à la plus grande prudence (relire notre communiqué : Interdiction d’utilisation des huiles minérales : l’Etat doit jouer son rôle).

Au-delà des choix d’investissement, quelle vision stratégique ?

Ingénieusement positionnée sur des produits à moyens tirages, la nanographie affiche des seuils qualitatifs proches de l’offset, avec une souplesse digne des procédés numériques. C’est à minima ce qui fait de la Landa S10P une machine versatile capable de répondre à des commandes variées, alors que les marchés de la communication massifiée apparaissent fragilisés… Un atout sur lequel compte le groupe Prenant, dont le positionnement est pourtant d’ores et déjà multiformes : « Nous avons 49 500 m² sur trois sites de production et un peu plus de 400 collaborateurs à ce jour, environ 500 clients et un chiffres d’affaires en 2021 de 65 millions d’euros à l’échelle du groupe. Nous avons 3 rotatives, 6 machines feuilles, 24 moteurs d’impression numérique, des lignes jet d’encre, des plieuses, des encarteuses, des chaînes de dos carré/collé, des lignes de mise sous enveloppe, une cellule postale intégrée, des chaînes de finition, de la découpe, des lignes de mise sous film etc. » brosse rapidement Philippe Vanheste, Directeur Général Adjoint. « Mais pour continuer de croire au papier, nous devons respecter trois conditions » prévient-il… « Il faut monter en gamme, il faut ajouter de la donnée variable et personnaliser le document et enfin il faut essayer de connecter le papier » poursuit-il, travaillant sur ce dernier point de concert avec Argo, solution de réalité augmentée permettant d’enrichir ses documents, qu’ils soient physiques ou PDF. Une philosophie au sein de laquelle la nanographie a donc trouvé à s’épanouir, sans évidemment épuiser à elle seule les stratégies de diversification et/ou de réorientation stratégique vers lesquelles les imprimeurs peuvent aujourd’hui être tentés – à juste titre – de se tourner. « Il faut accepter de voir que certains marchés standards se sont effondrés en dix ans, alors que dans le même temps, les beaux supports non-éphémères font plus que résister. Nous tâchons d’automatiser sur la partie de notre production la plus standard, pour être le plus productif possible, mais notre maxime est la même depuis des années : tout le monde peut proposer des prix bas, dans un contexte de développement de l’entreprise, moins nombreux sont ceux qui risquent l’innovation, l’investissement et la différenciation technologique » conclue-t-il.

Photographies : David Marmier

Décret tertiaire : les arguments de l’UNIIC ont été entendus

Nombre des adhérents de l’UNIIC nous ont fait part de leurs inquiétudes quant à l’assimilation des métiers de l’impression au secteur tertiaire, dans le cadre des obligations instaurées par le décret éponyme. A savoir : imposer une réduction des consommations énergétiques au sein des bâtiments dits « tertiaires » pour répondre à des objectifs planifiés de sobriété. L’UNIIC s’est attachée à rappeler aux pouvoir publics la nature profondément industrielle des imprimeurs Labeur, qu’on ne saurait – à tout le moins sur ce type de dispositions – amalgamer aux activités de reprographie par exemple. Un argumentaire qui a été entendu puisque la plateforme OPERAT, via la réponse A31 de la Foire Aux Questions (FAQ) autorise désormais, à notre demande, des disjonctions de cas : ainsi les imprimeurs ne sont-ils plus automatiquement assimilés au secteur tertiaire, ce qui est une première avancée dans un dossier que l’UNIIC continue bien évidemment de suivre.

Lire la réponse A31 de l’ADEME

Denis Ferrand – « Le secteur papetier est sur-sensible aux variations des prix de l’énergie »

Il n’est jamais aisé d’intervenir lors d’un congrès sectoriel avec la casquette d’économiste prévisionniste, qui plus est en des temps de crises plurielles et durables. C’est pourtant là le rôle qui avait été assigné à Denis Ferrand, économiste, chroniqueur aux Echos et Directeur général de Rexecode, avec qui nous avons voulu revenir à froid – et quelques semaines après le congrès – sur quelques points majeurs de son intervention.

Denis Ferrand, lors de son intervention pour le congrès de la Filière Graphique 2022, Print’issime.

Pendant le Congrès de la Filière Graphique à Reims, vous avez notamment dit, avec un brin d’humour (jaune) : « Vous êtes probablement le seul secteur dans lequel on observe encore des hausses des prix des matières premières ». En l’occurrence, c’est une vraie souffrance pour nombre d’entreprises dans nos métiers qui subissent effectivement ce sentiment d’imprévisibilité. Il y a même parfois du fatalisme. A votre avis, pourquoi le secteur graphique semble-t-il ainsi échapper aux tendances macroéconomiques plus générales ?

Il est vrai que lorsque je regardais les cours de la pâte à papier, il s’agissait bien de la seule matière première – pour autant que l’on puisse parler de matière première puisqu’elle est en réalité déjà transformée – qui affichait encore des hausses de prix, alors que le reste refluait sous l’effet d’une contraction de l’activité. Pourquoi ? Probablement parce que c’est une matière qui incorpore énormément d’énergie dans sa fabrication et cela détermine son prix dans des proportions très supérieures à la moyenne. Les autres matières premières réagissent plus directement aux rapports classiques offre/demande, mais il n’empêche que mécaniquement, l’offre et la demande vont s’ajuster parce que la demande va ralentir, au regard de l’évolution d’un coût qui n’est plus supportable. Pour vous donner un ordre de grandeur sur cet aspect, nous avons étudié dans différents secteurs comment ceux-ci sont sensibles à l’évolution des coûts de l’énergie : quand on prend la filière papier, on s’aperçoit qu’une hausse de 43 % des prix de l’électricité et du gaz est « suffisante » pour que l’excédent brut d’exploitation (EBE) dégagé par la branche devienne nul. Et ce en posant comme hypothèse que les entreprises seront capables de répercuter la moitié de la hausse des prix de l’électricité et du gaz dans leurs propres prix… On atteint donc très rapidement une situation de perte d’exploitation, dans la mesure où les prix du gaz ont déjà connu jusqu’à 88 % d’augmentation en France par rapport à 2019. Donc oui, c’est une conjoncture assez « originale » si je puis dire, tout simplement parce que nous parlons là d’un secteur sur-sensible aux variations des prix de l’énergie gazière et électrique.

Vous vous êtes justement attaché pendant le congrès à expliquer pourquoi les prix de l’électricité étaient corrélés à ceux du gaz. Pourtant, le gaz ne produit que 7 % de l’électricité en France et nombreux sont ceux qui appellent aujourd’hui à un découplage et dénoncent un système de fixation des prix éminemment problématique. C’est d’ailleurs le constat de Bruno Le Maire lui-même, sans qu’on ait l’impression que les états aient d’autres moyens d’agir que de recourir à la dépense publique, via des correctifs de fortune… Est-ce qu’il n’est pas dangereux de ne disposer que de ce levier-là ?

L’électricité est en effet déterminée par le gaz parce que le prix s’établit au niveau de la centrale qui apporte le dernier kilowatt nécessaire à l’équilibre en tout instant du marché. Or, on le sait, l’électricité est un produit qui ne se stocke pas, contrairement au gaz. C’est donc souvent le gaz, environ 50 % du temps, qui permet l’équilibre permanent du marché : car c’est la ressource que l’on utilise pour répondre à la demande non satisfaite par les autres énergies, dans une forme d’appoint. L’efficacité du signal prix est au cœur de l’économie de marché et je pense que c’est quelque chose qui doit être préservé. Mais la question consiste en effet à savoir comment l’on met en place une tarification, non pas au prix marginal, mais selon des contrats de long terme pour éviter de générer ce type de rentes. Car c’est bien une forme de rente, dans la mesure où le prix de production marginal d’une centrale à gaz est aujourd’hui bien plus élevé que le prix de production moyen attaché aux autres énergies. A fortiori, plus encore aujourd’hui… Les contrats sont en général calés sur l’évolution des prix du marché, ce qui est une forme de garantie en soi. L’établissement de contrats de long terme me semble en tout cas être un facteur réducteur d’incertitudes pour les industriels, tout en préservant les conditions de la rentabilité de la production pour les fournisseurs d’électricité. Pour autant, en cas de dépassement de consommation, il faut bien pouvoir rémunérer l’appoint, qui est ce phénomène additionnel qui va déplacer l’équilibre entre l’offre et la demande. Il y a donc probablement en effet une grande reconfiguration du système à penser et mettre en place pour donner plus de visibilité aux acteurs et ce faisant, on limitera aussi ce besoin d’intervention par la dépense publique. Et il est vrai que lorsque l’on voit les montants dépensés pour faire face au choc énergétique, on est sur des mannes considérables : c’est au bas mot 100 milliards d’euros sur trois ans qui sont mobilisés pour amortir le choc, à la fois pour les ménages et les entreprises.

« L’inflation que nous vivons aujourd’hui procède de phénomènes qui se sont installés alors que chacun, ou presque, leur prêtait un caractère plus temporaire. »

Vous décrivez l’enchaînement des causes qui a aujourd’hui pu mener au réveil de l’inflation, selon un ensemble de mécanismes économiques finalement, d’apparence en tout cas, assez classique. On a pourtant le sentiment que le phénomène a pris tout le monde de court…

On a effectivement spontanément pensé qu’il s’agissait d’un pur phénomène de déséquilibre temporaire de marché en sortie de confinement et donc, qu’il allait se corriger. Mais il faut toujours revenir sur les effets de la crise du Covid : en sortie de crise, il y a eu des plans de relance massifs, une stimulation monétaire très importante et in fine une sur-stimulation de la demande, qui en plus s’est portée sur des biens industriels. Des besoins forts sont apparus durant les confinements, en contrepoids de ce que l’on ne pouvait plus faire, comme aller au restaurant par exemple. Quand il a fallu combler cette demande, on a assisté à une explosion des prix des matières premières : c’est ce qui a introduit le ver dans le fruit. On l’a d’abord identifié comme le facteur déclencheur d’un phénomène spontané amené à se résorber… Sauf que la demande est restée très forte, mettant à mal le système logistique international et générant diverses pénuries : le manque de semi-conducteurs, les défauts d’approvisionnement sur certaines matières comme le magnésium etc. Cet enchaînement de tensions a eu lieu avant le conflit en Ukraine, qui a eu pour effet d’amplifier le phénomène de manière, là encore, assez imprévisible. Tous ces éléments ont coagulé pour entraîner une boucle d’accélération des prix, diffusé à l’ensemble des biens et services. L’inflation que nous vivons aujourd’hui procède donc de phénomènes qui se sont installés alors que chacun, ou presque, leur prêtait un caractère plus temporaire. On n’a probablement pas vu assez rapidement les effets de propagation qui se jouaient dans l’espace des prix, avec d’autres phénomènes concomitants : la mobilité accrue de la main d’œuvre, notamment aux Etats-Unis, a été à l’origine d’une hausse sensible des salaires. Et bien sûr, lorsque le conflit en Ukraine survient, il vient poursuivre et amplifier un mouvement qui était déjà bien amorcé.

Faut-il s’attendre à voir ce phénomène inflationniste perdurer ?

Petit à petit, les choses vont se calmer parce qu’on observe déjà que beaucoup moins de capitaux sont levés sur les marchés, donc les capacités d’investissement des entreprises commencent à ralentir, de même que les investissements ralentissent également dans l’immobilier. Globalement, les conditions d’une baisse de la demande se mettent en place et mécaniquement, cela diminuera la pression sur les prix. Mais cela va prendre du temps, d’autant que d’autres éléments sont en cause et sont de nature plus structurelle : on a peut-être vu s’installer un paysage plus durablement inflationniste ces derniers mois, notamment via l’accélération des investissements dans la transition énergétique. Ces investissements-là sont en effet facteurs d’une inflation structurelle plus élevée que ce que nous avons connu dans les vingt dernières années.

“Le prix du gaz va certes baisser à terme, mais il ne va probablement pas revenir aux niveaux que nous connaissions.”

Vous dîtes que nous sommes dans une phase de « récession choisie », est-ce que vous pouvez nous dire en quoi cela consiste, combien de temps ça dure et quelles en sont les conséquences à moyen terme, notamment pour les entreprises ?

Cela renvoie d’abord au Covid : nous avons choisi collectivement de mettre l’économie à l’arrêt. Cela veut dire qu’il faut de l’intervention publique pour éviter les disparitions massives d’entreprises et des pertes d’emplois à l’avenant. C’est un peu la même chose par rapport aux conséquences d’un conflit : on a choisi de mettre en place des sanctions visant la Russie, ce qui occasionne des hausses de prix des matières premières, du gaz et par conséquent de l’électricité. Il faut ensuite assumer ces choix, c’est-à-dire en premier lieu accepter une hausse des prix d’importation de certains produits et de certaines matières. Cette hausse de prix occasionne une perte de revenus pour l’ensemble de l’économie nationale, perte qu’il va ensuite falloir répartir entre les agents. Lorsque le prix du gaz augmente comme il a augmenté, il y a un prélèvement sur l’ensemble de l’économie. Le prix du gaz va certes baisser à terme, mais il ne va probablement pas revenir aux niveaux que nous connaissions, parce que nous aurons changé notre structure d’approvisionnement, parce qu’un producteur important (la Russie) se trouvera de fait beaucoup moins mobilisé, parce que nous aurons fait venir du GNL [gaz naturel liquéfié, NDLR] qui coûte beaucoup plus cher et ainsi nous allons déplacer durablement nos coûts énergétiques vers le haut. Cela ne pourra pas être pris en charge par la puissance publique ad vitam aeternam. Il faut donc se poser la question de savoir comment on organise ces pertes, entre la baisse de pouvoir d’achat du revenu des ménages, l’absorption de ce choc de coûts par les entreprises dans leurs marges et comment elles le restituent dans leurs propres prix. Il y a donc un nouvel équilibre à trouver, en gardant à l’esprit qu’on ne pourra pas maintenir longtemps un déficit public aux alentours de 5 %.

Vous dîtes également que le poids de l’industrie dans le PIB recule logiquement. En quoi est-ce un phénomène normal aujourd’hui ?

L’industrie est le secteur qui produit les plus importants gains de productivité dans l’économie. Habituellement, c’est environ 3 % de gains de productivité chaque année, là où dans l’ensemble de l’économie c’est plutôt 1 %. A quoi servent ces gains de productivité ? Et bien notamment à baisser les prix à destination de ses clients, cela sert aussi à augmenter les salaires et/ou les marges de l’entreprise. Comme le prix relatif de l’industrie recule par rapport à celui de l’économie générale, le poids de l’industrie dans la valeur ajoutée globale va diminuer de manière tendancielle. Mais la question qui se pose est celle-ci : est-ce que ce recul du poids de l’industrie en valeur dans l’ensemble de l’économie est accompagné d’un recul en volume ? C’est-à-dire : est-ce que la contraction de la valeur ajoutée est telle qu’elle est insupportable pour le secteur industriel qui restitue tous ses gains de productivité à ses clients sans être capable d’en garder une partie pour préserver ses marges et investir ? Si tel est le cas, l’industrie rentre dans une logique d’attrition. C’est ce que l’on a observé en France, où ce recul du poids de l’industrie dans le PIB, a été beaucoup plus rapide que dans d’autres pays. En Allemagne par exemple, ce phénomène existe aussi, mais au gré de mécanismes plus vertueux de restitution de gains de productivité et de préservation des marges des entreprises. En France, cette perte de valeur ajoutée est aussi un reflet de la perte de compétitivité de l’appareil de production. D’où les difficultés de notre industrie à préserver ses marges…

« On voit se mettre en place les conditions d’une valorisation des efforts d’exemplarité des industriels dans la sphère écologique et c’est probablement ce que la situation actuelle porte de plus positif. »

Faut-il craindre une année 2023 noire sur le plan de l’activité économique ? Quelles sont les conditions d’une sortie de crise ?

On peut craindre une année noire en effet et c’est ce que disent les industriels allemands : cela a d’ailleurs été relayé lors de votre Congrès, lorsque Florian Kohler [propriétaire-gérant de Gmünd et représentant francophone du Bundesverband Druck & Medien, NDLR] expliquait dans son allocution passionnante combien depuis le mois de février 2022, il passait la moitié de son temps à discuter des conditions d’approvisionnement énergétiques. On voit bien qu’il y a là un sujet extrêmement fort. Quand vous regardez les anticipations sur lesquelles s’appuient les allemands, vous vous apprêtez à affronter un hiver sibérien. Pour autant, je vois aussi des motifs d’encouragement dans la mesure où jusqu’à présent, l’investissement des entreprises résiste. Il est même très positif, au regard de la conjoncture. On a l’impression que les entreprises ont compris les conséquences du choc de prix que nous vivons actuellement, à savoir que cela préfigure notre destin économique pour plusieurs années. On a devant nous des prix de l’énergie qui sont voués à être durablement élevés et les entreprises sont peut-être en train de sortir de leurs cartons des projets d’investissement pour réduire leurs consommations énergétiques et « produire mieux », tout simplement. Autant de projets qui n’auraient pas forcément éclos sans l’urgence de la situation. Tout l’enjeu sera de valoriser cette transformation fondamentale des modes de production, si elle se met bel et bien en place. C’est un tout cas un objectif passionnant et il est d’ampleur internationale : comment valoriser des progrès écoresponsables ? Comment en faire un levier de compétitivité ? C’est là qu’il me semble possible de trouver des conditions de sortie de crise : on accélère dans la phase de récession, on se met certes en danger, mais parce que l’on sait qu’on est capable de valoriser les choix qui auront été faits, notamment en termes de production décarbonée. Là-dessus, il faudra faire en sorte que cela soit validé par le marché de manière beaucoup plus ferme que cela n’a été le cas jusqu’à aujourd’hui. Car il est vrai que jusqu’à présent, les investissements dits « verts » ont fait augmenter les coûts de production, sans apporter encore un avantage compétitif suffisant. Parfois, c’était même désincitatif : la hausse des prix qui en résultait voyait se détourner certains clients de ce type d’offre. Mais le durcissement de la règlementation aidant, il y aura probablement une valorisation concrète des investissements liés à la décarbonation. On parle par exemple de la possible mise en place d’une taxe carbone aux frontières, par l’introduction d’une conditionnalité dans le choix des fournisseurs selon qu’ils aient fait ou non des investissements verts etc. On voit ainsi se mettre en place les conditions d’une valorisation des efforts d’exemplarité des industriels dans la sphère écologique et c’est probablement ce que la situation actuelle porte de plus positif. D’autant que c’est une issue gagnante pour tous : pour les entreprises, pour l’économie et pour le climat.

Pousser les murs : quelles sont les clés d’une diversification réussie ?

A l’initiative de l’UNIIC et en partenariat avec Mutoh, une quarantaine de participants se sont retrouvés chez Poitoo Adhésifs, à Poitiers, le 17 novembre dernier pour « pousser les murs ». L’objectif : penser sa diversification autour des possibilités offertes par l’impression grand format et la communication par l’objet.

Des stratégies d’hyperspécialisation à celles qui visent au contraire la diversification de son offre, les marchés de l’impression offrent de nombreuses possibilités de positionnement. Une variété d’approches qui peut tant procéder de réflexions muries que de virages improvisés…  « La diversification doit aussi être pensée au-delà des effets d’opportunité, c’est-à-dire au-delà des demandes que peuvent vous faire vos clients. L’objectif de cette journée, c’est de vous amener à prendre du recul pour vous poser cette question : qu’est-ce que je peux faire et qu’est-ce que je veux faire ? » clarifie Julie Chide, responsable de la division Industries Créatives pour l’UNIIC, en introduction de cette journée.

L’IDICG propose un accompagnement à la diversification

Si la diversification suppose des investissements au sens large, à la fois techniques et humains, il convient dans un premier temps d’interroger ses propres capacités, pour ensuite faire les choix adéquats. Cela suppose d’analyser son parc machines, d’évaluer les possibilités d’optimisation de son matériel, de soupeser les implications d’un virage technico-stratégique et d’étudier ses besoins à l’aune d’une offre recomposée. Vaste programme, que l’Institut de Développement Industriel pour la Communication Graphique (IDICG) se propose de mener aux côtés des entreprises, via un accompagnement justement dédié aux mouvements de diversification. En premier lieu au moyen d’un « audit & diagnostic tenu sur trois jours, puis de la définition d’une stratégie adaptée au cas par cas (opportunités, préconisations & accompagnement), tenue sur dix jours » détaille Edouard Faucheux, Designer consultant. « La logique qui préside cette action est de permettre à nos entreprises françaises de bénéficier de la meilleure offre de service possible » précise Guillaume Trias (Nuances Impressions) au titre de membre du Bureau exécutif de l’UNIIC, avec « la volonté ferme de ne pas voir partir ces marchés à l’étranger ».

Diversification : mise en pratique !

Si le développement des compétences en interne est essentiel – par des ressources de formation pour lesquelles l’IDICG sera un intermédiaire privilégié, afin de guider les entreprises vers les meilleures solutions et prises en charge –, le choix d’étendre son offre suppose souvent de revoir et/ou étendre son outil industriel. C’était là le sens du partenariat avec Mutoh sur cette bien nommée « journée technique », qui proposait chez Poitoo Adhésifs de mettre en démonstration différents matériels, en collaboration avec différents partenaires :

  • Table à plat UV Grand Format PerformanceJet 2508 UF avec GRAPHIC RESEAU
  • Signalétique souple Xpertjet 1682-sr-pro avec BUROLOGIC
  • Découpe et lamination avec POITOO ADHESIFS, SUMMA, KALA, AVERY, 3M, ASLAN, SAINT CLAIR
  • UV Petit format Xperjet 661 UF par MUST TECHNOLOGIE

 « Notre philosophie, c’est de chercher les bonnes technologies avec les bonnes encres, en fonction de vos besoins. Nous pensons qu’il n’existe pas de solution universelle » explique Guillaume Santana, responsable commercial France, Espagne & Maghreb chez Mutoh. « Nous constatons toutefois que l’on couvre jusqu’à 70 % des besoins avec les encres écosolvants. Pour le reste, nous avons les encres UV » poursuit-il, insistant sur la spécificité de Mutoh sur ces marchés, « seul fabricant à proposer trois types d’encres UV en signalétique souple ». L’impression grand format reposant aujourd’hui sur des technologies relativement matures, une part très importante des efforts qui lui sont liés touche désormais à la diminution des impacts environnementaux associés. « Il faut être honnête : l’impression numérique n’est pas écologique en soi. A nous de chercher à réduire au maximum nos impacts » précise Guillaume Santana, illustrant son propos par la volonté de la marque de maitriser sa consommation énergétique, dans un contexte où par ailleurs, les coûts de l’énergie s’envolent. « L’influence de l’encre sur le bilan carbone est mineure. Pour une encre à solvant, on mesure en effet 8 grammes d’encre par m² sur 300 grammes de PVC + support, soit 2,67 % du bilan carbone. Ce sont donc d’autres facteurs qui sont déterminants, avec en premier lieu le processus d’impression et son efficacité énergétique » fait-il savoir, Mutoh ayant de fait travaillé à des formulations d’encres capables de se fixer à basse température (exemple : 35° pour une encre MS51 sur une XpertJet 1641SR-P), réduisant ainsi de façon mécanique la consommation énergétique des machines.

En s’ouvrant à de nouvelles applications sur différents supports (verre, cuir, bois, textiles, métal, marbre, packaging, céramique etc.), les imprimeurs prêts à reconsidérer leur business sur les marchés étendus de la communication dite « à 360° » ont donc mis à profit cette journée pour se faire une meilleure idée des implications techniques que pareil repositionnement supposerait. Une initiative que l’UNIIC entend reconduire à moyen terme pour proposer d’autres ateliers pratiques, en tant que nécessaires aides à la réflexion, quand il s’agit de repenser son offre.

Jérôme Gelin (Poitoo Adhésifs) a présenté le logiciel ONYX TruFit, un outil d’imbrication qui économise le temps de production d’impressions et maximise l’utilisation des supports. Les utilisateurs peuvent ainsi créer des imbrications complexes et réduire l’usage du média jusqu’à 50 %.

Marc Tourneroche (Darius – Web to Print) s’est appliqué à donner les clés des évolutions nécessaires en termes d’approches commerciales, dans le sillage des initiatives de diversification de son offre.