Relevant AI, beyond the spectacle
In the cacophony of technological narratives that surrounds AI today, a profound distinction is emerging, that separates technical capability from genuine transformative potential. I call this distinction "Relevant AI," a concept that invites us to reframe our relationship with intelligent systems not through the lens of raw computational power, but through the more nuanced perspective of purpose, efficiency, and harmonious integration.
Relevant AI is a different concept that distinguishes itself within an increasingly crowded conceptual landscape of AI nomenclature—each attempting to capture some essential aspect of how intelligent systems should operate in relation to human societies. We encounter "AI for Good," which focuses on beneficial outcomes without specifying mechanisms or evaluation criteria; "Frugal AI," which prioritizes resource efficiency without necessarily addressing purpose or context; "Responsible AI," which centers ethical considerations while sometimes neglecting practical implementation; "Sustainable AI," which foregrounds environmental impact while potentially overlooking immediate utility; and countless other partial frameworks that illuminate aspects of the AI ecosystem without providing comprehensive orientation.
What distinguishes Relevant AI from this conceptual archipelago is that it is relational rather than absolute. Instead of prescribing universal characteristics that all AI systems should embody, it establishes a contextual framework that evaluates artificial intelligence through its situated value—the degree to which a particular system, with particular capabilities, serves particular human purposes within particular constraints.
The paradox of abundance
We find ourselves in a peculiar moment: flooded with artificial intelligence technology advances, yet at loss for wisdom in its application. The giant producers of large AI systems want enterprises to embrace a form of technological maximalism that equates scale with value, a curious inversion of the elegance that characterizes truly advanced design in both natural and human-made systems.
The AI industry has constructed elaborate narratives around foundation models and generalized intelligence, yet I am convinced that the most compelling applications often emerge from more focused, contextually-aware systems that thrive in delivering value within their own limitations.
The architecture of relevance
What makes AI truly relevant? Probably not the ever-expanding parameter counts, but rather the thoughtful alignment between technological means and organizations goals. The most valuable AI implementations in enterprise contexts typically emerge from systems designed with precision rather than excess—what we might call "right-sized intelligence."
Consider how a carefully crafted, domain-specific model, MEDIC, trained on 1,000 meticulously curated documents can be more effective in a specialized task than a general-purpose model using few-shot learning [1]. This pattern manifests across sectors—from healthcare diagnostics to financial risk assessment to manufacturing optimization.
The biological world offers an instructive parallel here. Nature rarely evolves generalized intelligence; instead, it crafts exquisitely specialized adaptations to particular environmental niches. The mantis shrimp's visual system is capable of perceiving twelve primary colors (compared to our three), and exemplifies this principle of specialized excellence: perceiving not only visible light but also ultraviolet and polarized light, it can precisely navigate complex coral reef environments.Why wouldn't relevant AI embrace specialization not as limitation, but as the foundation of genuine capability?
The ecological imperative
Beyond questions of efficacy lies the equally crucial dimension of AI relevance, its environmental footprint. Beyond the current debate about the actual environment footprint of generative AI, the energy consumption patterns of contemporary large language models cannot be dismissed as they reveal a worrisome trajectory that challenges both business pragmatism and ecological responsibility and begs the question: does this resource allocation deliver commensurate value? Are we conceptualizing efficiency as a central design principle? Or merely as an afterthought?
Relevant AI incorporates ecological awareness as a constitutive element rather than an external constraint. This perspective redefines efficiency not simply as an engineering virtue but as an ethical imperative. Unnecessary complexity represents not just economic waste but environmental irresponsibility.
The integration horizon: crossing the threshold of acceptability
If we seek the clearest measure of AI's relevance, we need look at how naturally it weaves itself into the fabric of human activity. The question of acceptability emerges as both gateway and barrier to this integration—particularly within corporate environments where technological adoption follows complex sociological patterns that transcend simple utility calculations. If we conceptualize acceptability as that liminal zone where technical capability encounters human receptivity and continued use, generating either productive fusion or mutual resistance.
Because AI that remains somewhat isolated or siloed—however impressive in demonstration—fails to cross what we might call the "integration horizon," that critical threshold beyond which technology ceases to be an external tool and becomes part of our extended cognitive architecture. This horizon marks the boundary between the conspicuous presence of technology and its incorporation into our real engagement with the world.
The passage across this integration horizon unfolds through an ecology of acceptance across multiple dimensions:
Processual acceptability: How "naturally" does the AI system fit into existing workflows? Does it respect the accumulated wisdom embedded in established processes while smoothly reconfiguring them toward greater efficacy?
Cognitive acceptability: To what degree does the system align with existing processes, human thought patterns, and decision processes? Does it honor intuitive reasoning while expanding our conceptual reach?
Institutional acceptability: How effectively does the technology accommodate organizational structures and governance requirements? Does it acknowledge the legitimate need for oversight while enabling productive transformation?
Cultural acceptability: Does the system respect and adapt to the cultural context of its deployment? Does it honor the invisible architectures of meaning through which technologies acquire significance beyond their technical operations—like how a smartphone represents not just communication capability but identity, status, and social belonging?
When AI achieves multi-dimensional acceptability, crossing this integration horizon, it manifests its relevance through enhanced productivity, optimized resource allocation, expanded creative possibilities, and improved decision quality. These outcomes together provide the ultimate evaluation framework for AI relevance, beyond technical specifications or architectural sophistication.
This journey from external tool to integrated partner illuminates the profound connection between acceptability and relevance. Relevant AI doesn't demand human adaptation to its technical parameters but instead achieves a form of "technological empathy" that offers itself to human intention while simultaneously expanding the horizon of possible actions.
Human-AI symbiosis
A final essential dimension of Relevant AI addresses its relationship to human expertise and agency. The most valuable AI systems recognize the unique complementarity between human and machine intelligence—an expanded cognitive circuit of sorts, a "cognitive holobiont"[2] that distributes intelligence across biological and technological cognitive substrates.
This perspective reframes AI development from replacement to augmentation—leveraging computational capabilities to enhance human judgment rather than supplant it. Such an approach necessitates thoughtful attention to explainability, bias mitigation, and governance frameworks not as afterthoughts but as foundational design principles of Relevant AI.
Relevant AI does not seek to monopolize cognitive labor but to engage in a productive dialogue with human intelligence—challenging assumptions, offering alternative perspectives, and expanding our conceptual horizons while remaining transparently limited in ways that complement human strengths.
The path forward
Several principles can guide the development and deployment of Relevant AI in business:
1. Proportionality: Match computational approach to problem complexity with precision rather than overwhelming force. Don't drive a Ferrari if you can ride your bicycle.
2. Ecological Mindfulness: Prioritize efficient design that minimizes unnecessary resource consumption.
3. Integration Awareness: Design systems with their eventual integration into human workflows as a primary consideration.
4. Complementary Intelligence: Seek to augment human capabilities rather than replicate them.
5. Value Orientation: Evaluate AI not by technical metrics alone but by its contribution to meaningful outcomes.
These principles offer not just a practical framework for AI development but a philosophical reorientation—a shift from the question "What can AI do?" to the more profound inquiry: "What should AI do, and how should it do it?"
Conclusion: beyond the spectacle
The future of AI in enterprise contexts belongs to systems designed with relevance as their organizing principle—technologies that are appropriately scaled, environmentally sustainable, seamlessly integrated, and fundamentally human-centered.
This shift represents more than a technical adjustment. It constitutes a reconceptualization of artificial intelligence—from technology as spectacle to technology as thoughtful companion in our collective project of understanding and shaping the world.
Relevant AI reminds us that the most profound technological transformations often happen not through dramatic ruptures but through the patient alignment of powerful tools with genuine human needs.
---
[1] Pais, Cristobal et al. “Large language models for preventing medication direction errors in online pharmacies.” Nature medicine vol. 30,6 (2024) https://pmc.ncbi.nlm.nih.gov/articles/PMC11186789/
[2] Here, the cognitive holobiont is a metaphorical extension of the biological holobiont concept² to describe human cognition as a hybrid system. Just as a biological holobiont comprises a host organism and its associated microbiota, the cognitive holobiont represents the integration of an individual's internal cognitive processes with external sources of knowledge and computation. This includes interactions with physical artifacts (e.g., books, computers), social environments, and cultural contexts. The metaphor emphasizes that human thinking and decision-making emerge from a complex ecosystem of internal and external cognitive resources, rather than being confined to the brain alone.
L'IA pertinente, au-delà du spectacle
Dans la cacophonie d'des narratifs technologiques qui entourent l'IA aujourd'hui, une distinction profonde émerge, séparant la capacité technique du véritable potentiel transformateur. J'appelle cette distinction « l'IA Pertinente », un concept qui nous invite à recadrer notre relation avec les systèmes intelligents non pas à travers le prisme de la puissance computationnelle brute, mais à travers la perspective plus nuancée de la finalité, de l'efficience et de l'intégration harmonieuse.
L'IA Pertinente se distingue au sein d'un paysage conceptuel de plus en plus encombré de nomenclatures d'IA—chacune tentant de saisir un aspect essentiel de la manière dont les systèmes intelligents devraient opérer en relation avec les sociétés humaines. Nous rencontrons « l'IA pour le bien », qui se concentre sur les résultats bénéfiques sans spécifier les mécanismes ou les critères d'évaluation ; « l'IA frugale », qui privilégie l'efficience des ressources sans nécessairement aborder la finalité ou le contexte ; « l'IA responsable », qui centre les considérations éthiques tout en négligeant parfois l'implémentation pratique ; « l'IA durable », qui met au premier plan l'impact environnemental tout en négligeant potentiellement l'utilité immédiate ; et d'innombrables autres cadres partiels qui éclairent des aspects de l'écosystème de l'IA sans fournir d'orientation complète.
Ce qui distingue l'IA Pertinente dans cet archipel conceptuel, c'est qu'elle est relationnelle plutôt qu'absolue. Au lieu de prescrire des caractéristiques universelles que tous les systèmes d'IA devraient incarner, elle établit un cadre contextuel qui évalue l'intelligence artificielle à travers sa valeur située—le degré auquel un système particulier, avec des capacités particulières, sert des objectifs humains particuliers dans des contraintes particulières.
Le paradoxe de l'abondance
Nous nous trouvons à un moment singulier : inondés d'avancées technologiques en intelligence artificielle, mais en manque de sagesse dans leur application. Les grands producteurs de systèmes d'IA veulent que les entreprises adoptent une forme de maximalisme technologique qui assimile l'échelle à la valeur, une curieuse inversion de l'élégance qui caractérise les conceptions véritablement avancées, tant dans les systèmes naturels qu'artificiels.
L'industrie de l'IA a construit des narratifs élaborés autour des modèles fondamentaux et de l'intelligence généralisée, pourtant je suis convaincu que les applications les plus convaincantes émergent souvent de systèmes plus ciblés, contextuellement conscients, qui prospèrent en délivrant de la valeur dans leurs propres limitations.
L'architecture de la pertinence
Qu'est-ce qui rend l'IA véritablement pertinente ? Probablement pas le nombre toujours croissant de paramètres, mais plutôt l'alignement réfléchi entre les moyens technologiques et les objectifs organisationnels. Les implémentations d'IA les plus précieuses dans les contextes d'entreprise émergent typiquement de systèmes conçus avec précision plutôt qu'excès—ce que nous pourrions appeler « l'intelligence à la bonne échelle ».
Considérons comment un modèle spécifique à un domaine, MEDIC, soigneusement élaboré et entraîné sur 1 000 documents méticuleusement sélectionnés, peut être plus efficace dans une tâche spécialisée qu'un modèle à usage général utilisant l'apprentissage à partir de quelques exemples[^1]. Ce schéma se manifeste à travers les secteurs—du diagnostic médical à l'évaluation des risques financiers en passant par l'optimisation de la production.
Le monde biologique offre ici un parallèle instructif. La nature fait rarement évoluer l'intelligence généralisée ; au lieu de cela, elle façonne des adaptations exquisément spécialisées à des niches environnementales particulières. Le système visuel de la crevette-mante est capable de percevoir douze couleurs primaires (comparées à nos trois), et exemplifie ce principe d'excellence spécialisée : percevant non seulement la lumière visible mais aussi la lumière ultraviolette et polarisée, elle peut naviguer avec précision dans des environnements complexes de récifs coralliens. Pourquoi l'IA pertinente n'embrasserait-elle pas la spécialisation non pas comme une limitation, mais comme le fondement d'une véritable capacité ?
L'impératif écologique
Au-delà des questions d'efficacité se trouve la dimension tout aussi cruciale de la pertinence de l'IA, son empreinte environnementale. Au-delà du débat actuel sur l'empreinte environnementale réelle de l'IA générative, les schémas de consommation d'énergie des grands modèles de langage contemporains ne peuvent être écartés car ils révèlent une trajectoire préoccupante qui défie à la fois le pragmatisme commercial et la responsabilité écologique et soulève la question : cette allocation de ressources offre-t-elle une valeur proportionnelle ? Concevons-nous l'efficience comme un principe central de conception ? Ou simplement comme une réflexion après coup ?
L'IA Pertinente incorpore la conscience écologique comme un élément constitutif plutôt qu'une contrainte externe. Cette perspective redéfinit l'efficience non pas simplement comme une vertu d'ingénierie mais comme un impératif éthique. La complexité inutile représente non seulement un gaspillage économique mais une irresponsabilité environnementale.
L'horizon d'intégration : franchir le seuil d'acceptabilité
Si nous cherchons la mesure la plus claire de la pertinence de l'IA, nous devons examiner avec quelle naturalité elle s'intègre dans le tissu de l'activité humaine. La question de l'acceptabilité émerge à la fois comme porte d'entrée et barrière à cette intégration—particulièrement dans les environnements corporatifs où l'adoption technologique suit des schémas sociologiques complexes qui transcendent les simples calculs d'utilité. Si nous conceptualisons l'acceptabilité comme cette zone liminale où la capacité technique rencontre la réceptivité humaine et l'utilisation continue, générant soit une fusion productive, soit une résistance mutuelle.
Parce que l'IA qui reste quelque peu isolée ou cloisonnée—aussi impressionnante soit-elle en démonstration—ne parvient pas à franchir ce que nous pourrions appeler « l'horizon d'intégration », ce seuil critique au-delà duquel la technologie cesse d'être un outil externe et devient partie de notre architecture cognitive étendue. Cet horizon marque la frontière entre la présence manifeste de la technologie et son incorporation dans notre engagement réel avec le monde.
Le passage à travers cet horizon d'intégration se déploie via une écologie d'acceptation à travers de multiples dimensions :
Acceptabilité processuelle : À quel point le système d'IA s'intègre-t-il « naturellement » dans les flux de travail existants ? Respecte-t-il la sagesse accumulée enchâssée dans les processus établis tout en les reconfigurant harmonieusement vers une plus grande efficacité ?
Acceptabilité cognitive : Dans quelle mesure le système s'aligne-t-il avec les processus existants, les schémas de pensée humains et les processus décisionnels ? Honore-t-il le raisonnement intuitif tout en élargissant notre portée conceptuelle ?
Acceptabilité institutionnelle : Avec quelle efficacité la technologie s'accommode-t-elle des structures organisationnelles et des exigences de gouvernance ? Reconnaît-elle le besoin légitime de surveillance tout en permettant une transformation productive ?
Acceptabilité culturelle : Le système respecte-t-il et s'adapte-t-il au contexte culturel de son déploiement ? Honore-t-il les architectures invisibles de signification à travers lesquelles les technologies acquièrent une importance au-delà de leurs opérations techniques—comme la façon dont un smartphone représente non seulement une capacité de communication mais aussi l'identité, le statut et l'appartenance sociale ?
Lorsque l'IA atteint une acceptabilité multidimensionnelle, franchissant cet horizon d'intégration, elle manifeste sa pertinence par une productivité accrue, une allocation optimisée des ressources, des possibilités créatives élargies et une qualité décisionnelle améliorée. Ces résultats fournissent ensemble le cadre d'évaluation ultime pour la pertinence de l'IA, au-delà des spécifications techniques ou de la sophistication architecturale.
Ce voyage de l'outil externe au partenaire intégré illumine la connexion profonde entre acceptabilité et pertinence. L'IA Pertinente n'exige pas l'adaptation humaine à ses paramètres techniques mais atteint plutôt une forme « d'empathie technologique » qui s'offre à l'intention humaine tout en élargissant simultanément l'horizon des actions possibles.
Symbiose humain-IA
Une dimension essentielle finale de l'IA Pertinente concerne sa relation avec l'expertise et l'agentivité humaines. Les systèmes d'IA les plus précieux reconnaissent la complémentarité unique entre l'intelligence humaine et machine—une sorte de circuit cognitif étendu, un « holobionte cognitif »[2] qui distribue l'intelligence à travers des substrats cognitifs biologiques et technologiques.
Cette perspective recadre le développement de l'IA de remplacement vers l'augmentation—exploitant les capacités computationnelles pour améliorer le jugement humain plutôt que de le supplanter. Une telle approche nécessite une attention réfléchie à l'explicabilité, à l'atténuation des biais et aux cadres de gouvernance, non pas comme des réflexions après coup mais comme des principes fondamentaux de conception de l'IA Pertinente.
L'IA Pertinente ne cherche pas à monopoliser le travail cognitif mais à s'engager dans un dialogue productif avec l'intelligence humaine—remettant en question les suppositions, offrant des perspectives alternatives et élargissant nos horizons conceptuels tout en restant transparente dans ses limitations de manière à compléter les forces humaines.
La voie à suivre
Plusieurs principes peuvent guider le développement et le déploiement de l'IA Pertinente en entreprise :
1. Proportionnalité : Faites correspondre l'approche computationnelle à la complexité du problème avec précision plutôt qu'avec une force écrasante. Ne conduisez pas une Ferrari si vous pouvez utiliser votre bicyclette.
2. Conscience écologique : Privilégiez une conception efficiente qui minimise la consommation inutile de ressources.
3. Conscience d'intégration : Concevez des systèmes en considérant principalement leur éventuelle intégration dans les flux de travail humains.
4. Intelligence complémentaire : Cherchez à augmenter les capacités humaines plutôt qu'à les répliquer.
5. Orientation vers la valeur : Évaluez l'IA non seulement par des métriques techniques mais par sa contribution à des résultats significatifs.
Ces principes offrent non seulement un cadre pratique pour le développement de l'IA, mais aussi une réorientation philosophique—un déplacement de la question « Que peut faire l'IA ? » vers l'interrogation plus profonde : « Que devrait faire l'IA, et comment devrait-elle le faire ? »
Conclusion : au-delà du spectacle
L'avenir de l'IA dans les contextes d'entreprise appartient aux systèmes conçus avec la pertinence comme principe organisateur—des technologies qui sont à l'échelle appropriée, écologiquement durables, parfaitement intégrées et fondamentalement centrées sur l'humain.
Ce changement représente plus qu'un ajustement technique. Il constitue une reconceptualisation de l'intelligence artificielle—de la technologie comme spectacle à la technologie comme compagnon réfléchi dans notre projet collectif de compréhension et de façonnement du monde.
L'IA Pertinente nous rappelle que les transformations technologiques les plus profondes se produisent souvent non pas à travers des ruptures dramatiques, mais à travers l'alignement patient d'outils puissants avec de véritables besoins humains.
---
[1]: Pais, Cristobal et al. "Large language models for preventing medication direction errors in online pharmacies." Nature medicine vol. 30,6 (2024) https://pmc.ncbi.nlm.nih.gov/articles/PMC11186789/
[2] Ici, l'holobionte cognitif est une extension métaphorique du concept biologique d'holobionte pour décrire la cognition humaine comme un système hybride. Tout comme un holobionte biologique comprend un organisme hôte et son microbiote associé, l'holobionte cognitif représente l'intégration des processus cognitifs internes d'un individu avec des sources externes de connaissance et de calcul. Cela inclut les interactions avec des artefacts physiques (livres, ordinateurs), des environnements sociaux et des contextes culturels. La métaphore souligne que la pensée humaine et la prise de décision émergent d'un écosystème complexe de ressources cognitives internes et externes, plutôt que d'être confinées au cerveau seul.
CTO / COO - Web3 (Blockchain & AI) expert and entrepreneur - 35 years of experience in web and mobile industry 🌍 - Stablecoins / CBDCs - New monetary challenges for emerging countries.
5moTexte remarquable Benoit Bergeret qui fait suite à notre échange sur la nécessité de l’apprentissage ou plutôt de l’accompagnement des enfants et des adultes lors de leur découverte de l’IA, afin qu’ils l’apprivoise, comme aurait dit Saint-Exupery avec le renard. Si je peux me permettre un complément à ton texte, l’IA n’est pas figée, elle a la capacité de s’adapter à son utilisateur. De ce fait, se limiter à des principes de conception de ses systèmes, tout vertueux qu’ils soient, me semble réducteur. Le travail d’éducation à l’usage des IA est aussi important que l’éthique de leur conception. Les IA seront ce que nous en faisons. Ton texte donne en tout cas une base fondamentale de tout apprentissage, à savoir reconnaître la pertinence de l’IA, faute de quoi il faudrait l’écarter des outils recommandés. L’artisan va choisir et conserver un outil si il est pertinent dans l’atteinte de ses objectifs. L’IA ne fait pas exception à ce principe. Vaste programme !
Independent Board Director | AI Veteran, Product Strategist | Exec‑Ed Lecturer | Keynote speaker | Author | VC/PE Due‑Diligence Expert. Co-founder & Board member Hub France IA. Affiliated with ESSEC Business School.
5moCaroline Chopinaud Rim Tehraoui Guy Mamou-Mani 🟠 Anne-Sophie Bordry Christophe Lienard
Independent Board Director | AI Veteran, Product Strategist | Exec‑Ed Lecturer | Keynote speaker | Author | VC/PE Due‑Diligence Expert. Co-founder & Board member Hub France IA. Affiliated with ESSEC Business School.
5moMarie Guillaume Laurène Kiéné Lea Deleris Jérôme Lebecq Fabrice le Chatelier
CEO @lawarroom / Partner @netframe / Ex Dean @sciencespo / Fondateur @lanetscouade / Ex Pt @cnnum / IA-institut
5moUne des choses les plus intelligentes que j'ai lues sur l Ia
Independent Board Director | AI Veteran, Product Strategist | Exec‑Ed Lecturer | Keynote speaker | Author | VC/PE Due‑Diligence Expert. Co-founder & Board member Hub France IA. Affiliated with ESSEC Business School.
5moDavid Djaïz Pour faire écho à ton post hier