Accueil > Charte IA
Charte IA - Intelligence Artificielle
Pourquoi cette charte ?
L’intelligence artificielle fait partie de nos outils de travail. Nous préférons le dire clairement plutôt que de le taire. C’est cohérent avec la façon dont nous travaillons avec nos parties prenantes : en transparence.
Cette page explique comment nous l’utilisons, pourquoi nous avons fait certains choix et ce que cela implique pour les données que vous nous confiez, en tant que client.
Nos critères de choix des outils
Nous ne choisissons pas nos outils IA uniquement sur leurs performances techniques. Nous regardons aussi qui est derrière, comment l’entreprise est gouvernée, quelle est sa politique de confidentialité et si ses valeurs sont compatibles avec les nôtres.
C’est pourquoi nous n’utilisons pas certains outils très répandus, notamment ceux dont le modèle économique repose sur l’exploitation des données personnelles ou dont la gouvernance nous semble insuffisamment transparente.
Nous travaillons actuellement avec Claude, développé par Anthropic, dont nous apprécions l’approche sur la sécurité, la transparence et l’éthique de l’IA. Nous restons attentifs à l’évolution de ces acteurs et nous réservons le droit de faire évoluer nos choix si nécessaire.
Vos données et la confidentialité
C’est le point sur lequel nous sommes le plus vigilant. Ce que nous faisons actuellement :
- Nous vous demandons votre accord explicite pour saisir des données nominatives ou sensibles dans un outil IA.
- Si nous utilisons l’IA pour travailler sur des éléments d’un client, nous anonymisons ou généralisons les informations. Par exemple, nous parlons « d’une entreprise de 12 personnes dans le secteur alimentaire”, pas de votre nom ou de vos chiffres précis.
- Nous utilisons des outils dont les conditions générales ne prévoient pas d’utiliser vos données pour entraîner leurs modèles. Claude, par exemple, ne réutilise pas les conversations à des fins d’entraînement par défaut dans le cadre d’un usage professionnel.
✅ Ce que nous nous autorisons avec l'IA
En interne, pour notre propre organisation : rédaction, recherche documentaire, production de supports et développement d’outils numériques. L’IA nous permet d’être plus efficaces sur des tâches à faible valeur ajoutée, pour consacrer plus de temps et d’énergie à ce qui compte : l’échange humain et l’expertise.
Dans certains accompagnements clients, ponctuellement : synthèse de données, aide à la structuration d’analyses, production de livrables. Nous le faisons au cas par cas, jamais de façon systématique, et toujours avec votre accord explicite si vos données sont impliquées.
Dans tous les cas, l’IA n’analyse pas, ne conseille pas et ne décide pas à notre place. Elle accélère certaines tâches. Notre expertise et notre regard critique restent indispensables pour garantir la pertinence, l’authenticité et la qualité des échanges et des livrables proposés à nos clients.
⛔ Ce que nous refusons avec l'IA
- Nous n’utilisons pas l’IA pour simuler une relation humaine ou donner l’impression d’une expertise que nous n’aurions pas.
- Nous n’utilisons pas l’IA pour traiter des données sensibles (données de santé, données RH individuelles, informations financières confidentielles) sans protocole spécifique validé avec vous.
- Jamais nous ne déléguerons notre expertise à l’IA. Si nous ne sommes pas expert d’un sujet, nous nous formons avant d’utiliser l’IA pour éviter et repérer les erreurs commises par l’IA.
- Nous n’utilisons pas l’IA à tout va. Nous réfléchissons d’abord “humainement” et sérieusement à la problématique donnée. C’est seulement si nous ne trouvons pas de réponse à notre problématique, ou que nous estimons que l’on pourrait aller plus loin avec l’IA que nous viendrons l’utiliser. Nous questionnons sont utilité plutôt que de l’interdire.
- Nous ne présentons jamais un livrable produit avec l’aide de l’IA comme s’il était entièrement rédigé de notre main. Nous sommes transparents avec vous lorsque nous l’utilisons.
Notre position sur les impacts de l'IA
Nous ne sommes pas naïfs sur les impacts environnementaux et sociaux de l’intelligence artificielle. Derrière chaque requête se trouvent
- des serveurs énergivores,
- des volumes d’eau considérables pour leur refroidissement
- une empreinte carbone réelle liée à l’entraînement des modèles
- des travailleurs peu visibles (souvent dans des pays du Sud) chargés d’annoter, filtrer et classer des données dans des conditions qui posent de vraies questions éthiques.
C’est précisément pourquoi nous faisons des choix (sur les outils, sur la fréquence d’usage, sur ce que nous faisons ou non avec l’IA). 💡 Utiliser l’IA avec discernement, c’est aussi savoir quand ne pas l’utiliser.
Car la sobriété, chez Fertilidée, n’est pas une posture récente adoptée pour les besoins d’une charte. C’est une valeur que nous défendons dans notre travail quotidien : auprès des entreprises que nous accompagnons, dans nos choix d’achats, dans notre rapport à la croissance et à la consommation.
Une charte vivante
Cette charte évoluera avec nos pratiques, l’évolution des outils et la progression de la réglementation (AI Act). Elle reflète notre volonté de maintenir un équilibre transparent entre innovation technologique et la valeur humaine que l’on défend dans nos accompagnements.
Nous avons encore des axes de progression :
- la formalisation d’un protocole interne complet,
- la documentation de nos pratiques,
- la mise à jour de nos mentions légales et politique de confidentialité pour refléter cet usage.
Nous nous engageons à le faire dans les prochains mois.
📖✏️ Charte rédigée avec l’aide de l’IA après une session de brainstorming 100% humain
Dernière mise à jour : avril 2026
Des questions sur notre usage de l’IA ? Écrivez-nous à contact@fertilidee.fr