_Editor's note for Canada: The French text follows the English text (Le texte français suit le texte anglais)._
ChatGPT is becoming more capable across domains, helping people with complex, real-world work like coding, research, analysis, and multi-step tasks across tools. Those gains in capability are driven by training on a wide variety of data to help our models build broad knowledge of the world and apply it to new tasks.
As OpenAI continues to develop frontier models, we work hard to help ensure that our model training process respects privacy. We’ve developed state of the art technologies to help our models learn useful general patterns rather than private information about individuals, and we have a number of user controls and policies to help keep individuals in control of their data.
This post explains what information may be used in model training, how we reduce the processing of personal information in that process, and how users can control whether their ChatGPT conversations help improve our models.
## What information may be used in training
To develop the models that power ChatGPT(opens in a new window), we use a mix of information sources, including publicly available information, information we access through partnerships, and information provided or generated by users, contractors, and researchers. This data helps models build general knowledge and respond more reliably and safely.
For publicly available internet content, we use only information that is freely and openly accessible. For example, if you participate in a publicly available online discussion forum, or post a blog or other public post, we may use that publicly accessible content for model training purposes.
## How we reduce personal information in training
Before information is used in training, we apply safeguards designed to reduce personal information in our datasets. One of those safeguards is OpenAI Privacy Filter, which identifies and masks personal information in text. In our evaluations, Privacy Filter is more effective at removing personal information than any other tool of its kind.
We use an internal version of Privacy Filter at multiple stages in the training process, including on public datasets that we use for training, as well as on user conversations if they have “Improve the model for everyone” enabled.
We have also made Privacy Filter available to other developers for free(opens in a new window), to help the broader industry protect privacy in their workflows.
## Privacy controls in ChatGPT
Users can choose whether their conversations with ChatGPT help train future models. Users can go to Settings, then Data Controls, and turn off "Improve the model for everyone.(opens in a new window)” Once this setting is off, new conversations still appear in chat history but are not used to train ChatGPT.
Temporary Chat(opens in a new window) offers another option. To start one, open a new chat and click the "Temporary" button in the top-right corner of the page. Temporary Chats do not appear in chat history, do not create memories, and are not used to improve our models. Conversations are retained for 30 days for safety purposes, and are then deleted.
In addition, Memory(opens in a new window) makes ChatGPT’s responses more useful by remembering things you don’t want to keep reminding ChatGPT—like important people in your life, projects you’re working on, or topics you usually ask about. It’s always optional: you can review, edit, or delete saved memories, or turn memory off entirely. When it’s off, ChatGPT won’t save or reference memory from past chats.
Users can also export their ChatGPT data, delete their account, manage data controls from settings, and submit privacy requests through the privacy request portal(opens in a new window). Users should not share sensitive information in ChatGPT that they wouldn't want to be used or reviewed.
## Preserving privacy in responses
ChatGPT is designed to reject requests for private or sensitive information about individuals. It can, however, make mistakes(opens in a new window). If ChatGPT output includes personal information about someone and they believe it is inaccurate or inappropriate, they can submit a request(opens in a new window) through the privacy request portal(opens in a new window).
## A responsibility we take seriously
People are using ChatGPT in increasingly personal ways, including for questions and tasks that can touch sensitive parts of their lives. We recognize the deep responsibility that comes with that trust. We care deeply about the people who use ChatGPT, and protecting their privacy is central to how we build. We also recognize that protecting privacy and addressing serious risks of harm have to work together. We take that responsibility seriously, and we continue to strengthen how we detect and respond to credible threats of violence while maintaining privacy safeguards. You can read more about our approach to community safety and enforcement here. As our models become more capable, we will keep improving safeguards, making privacy controls clearer, and giving people practical ways to decide how their information is used.
## Comment ChatGPT apprend à connaître le monde tout en protégeant la vie privée
_Un guide en langage clair au sujet de l’entraînement des modèles, les mesures de protection de la vie privée et les choix offerts en matière de confidentialité dans ChatGPT._
ChatGPT est de plus en plus performant dans divers domaines et aide les gens à accomplir destâches complexes et concrètes comme la programmation, la recherche, l’analyse et des tâches en plusieurs étapes à l’aide de différents outils. Ces gains en capacité sont rendus possibles grâce à l’entraînement sur une grande variété de données qui permettent à nos modèles d’acquérir de vastes connaissances sur le monde et de les appliquer à de nouvelles tâches.
Alors qu’OpenAI poursuit le développement de modèles de pointe, nous travaillons fort pour nous assurer que notre processus d’entraînement des modèles respecte la vie privée. Nous avons développé destechnologies de pointe pour aider nos modèles à apprendre des tendances générales utiles sans apprendre d’information privée sur des individus, et nous avons mis en place plusieurs contrôles et politiques pour aider les personnes à garder le contrôle de leurs données.
Cet article explique quels renseignements peuvent être utilisés pour l’entraînement des modèles, comment nous réduisons le traitement des renseignements personnels dans ce processus, et comment les utilisateurs peuvent choisir s’ils souhaitent que leurs conversations dans ChatGPT servent à améliorer nos modèles.
## Quels renseignements peuvent être utilisés pour l’entraînement
Pour développer lesmodèles qui alimentent ChatGPT(opens in a new window), nous utilisons un ensemble de sources d’information, y compris des informations accessibles au public, des informations auxquelles nous accédons grâce à des partenariats, ainsi que des renseignements fournis ou générés par les utilisateurs, prestataires et chercheurs. Ces données permettent aux modèles d’acquérir des connaissances générales et de répondre de manière plus fiable et plus sécuritaire.
Pour le contenu Internet accessible au public, nous utilisons uniquement de l’information librement et ouvertement accessible. Par exemple, si vous participez à un forum de discussion en ligne accessible au public ou si vous publiez un blogue ou un autre article public, nous pouvons utiliser ce contenu public aux fins d’entraînement des modèles.
## Comment nous réduisons les renseignements personnels dans l’entraînement
Avant que les renseignements ne soient utilisés pour l’entraînement, nous appliquons des mesures de protection visant à réduire la présence de renseignements personnels dans nos ensembles de données. L’une de ces mesures est « OpenAI Privacy Filter », un outil qui repère et masque les renseignements personnels dans les textes. Selon nos analyses, Privacy Filter est plus efficace à retirer les renseignements personnels que tout autre outil du genre.
Nous utilisons une version interne du Privacy Filter à plusieurs étapes du processus d’entraînement, y compris sur les ensembles de données publiques que nous utilisons pour l’entraînement, ainsi que sur les conversations des utilisateurs lorsque l’option « Améliorer le modèle pour tout le monde » est activée.
Nous avons également rendu le Privacy Filteraccessible à d’autres développeurs sans frais(opens in a new window) afin d’aider l’ensemble de l’industrie à protéger la vie privée dans leurs flux de travail.
## Contrôles de confidentialité dans ChatGPT
Les utilisateurs peuvent choisir si leurs conversations avec ChatGPT contribuent à l’entraînement de futurs modèles. Pour ce faire, ils peuvent accéder aux Paramètres et ensuite aux Contrôles des données etdésactiver l’option « Améliorer le modèle pour tout le monde(opens in a new window) ». Une fois ce paramètre désactivé, les nouvelles conversations demeurent visibles dans l’historique de clavardage, mais ne sont pas utilisées pour entraîner ChatGPT.
Leclavardage temporaire(opens in a new window) offre une autre option. Pour l’activer, ouvrez un nouveau clavardage et cliquez sur le bouton « Temporaire » dans le coin supérieur droit de la page. Les clavardages temporaires n’apparaissent pas dans l’historique de clavardage, ne créent pas de mémoires et ne sont pas utilisés pour améliorer nos modèles. Les conversations sont conservées pour 30 jours pour des raisons de sécurité et sont ensuite supprimées.
De plus, laMémoire(opens in a new window) rend les réponses de ChatGPT plus utiles en retenant les informations que vous ne voulez pas avoir à répéter, comme les personnes importantes dans votre vie, les projets sur lesquels vous travaillez ou les sujets sur lesquels vous posez habituellement des questions. Cette fonction est entièrement facultative : vous pouvez consulter, modifier ou supprimer les mémoires enregistrées, ou désactiver la mémoire en tout temps. Lorsqu’elle est désactivée, ChatGPT n’enregistre pas et ne fait pas référence à la mémoire de conversations antérieures.
Les utilisateurs peuvent également exporter leurs données ChatGPT, supprimer leur compte, gérer les contrôles des données à partir des paramètres et soumettre des demandes relatives à la vie privée par l’entremise duportail de confidentialité(opens in a new window). Les utilisateurs ne devraient pas partager dans ChatGPT des renseignements sensibles qu’ils ne souhaitent pas voir utilisés ou examinés.
## Protection de la vie privée dans les réponses
ChatGPT est conçu pour rejeter les demandes de renseignements personnels ou sensibles concernant des individus. Toutefois, il peutcommettre des erreurs(opens in a new window). Si une réponse de ChatGPT contient des renseignements personnels sur une personne et que cette dernière croit qu’ils sont inexacts ou inappropriés, elle peutsoumettre une demande(opens in a new window) par l’entremise duportail de confidentialité(opens in a new window).
## Une responsabilité que nous prenons au sérieux
Les gens utilisent ChatGPT de manières de plus en plus personnelles, notamment pour des questions et des tâches qui peuvent toucher des aspects sensibles de leur vie. Nous reconnaissons la grande responsabilité qui accompagne cette confiance. Nous tenons profondément aux personnes qui utilisent ChatGPT, et la protection de leur vie privée est au cœur de notre façon de concevoir nos produits.Nous reconnaissons également que la protection de la vie privée et la gestion des risques graves de préjudice doivent aller de pair. Nous prenons cette responsabilité au sérieux et nous continuons de renforcer nos moyens de détecter et de répondre aux menaces de violence crédibles tout en maintenant nos mesures de protection de la vie privée. Vous pouvez en apprendre davantage sur notre approche en matière desécurité communautaire et d’application des règles ici. À mesure que nos modèles deviennent plus performants, nous continuerons d’améliorer nos mesures de protection, de rendre les contrôles de confidentialité plus clairs et de donner aux gens des moyens concrets de décider comment leurs renseignements sont utilisés.
How frontier firms are pulling ahead Company May 6, 2026
Advancing youth safety and wellbeing in EMEA Safety May 5, 2026
OpenAI and PwC collaborate to reimagine the office of the CFO Global Affairs May 4, 2026
Our Research * Research Index * Research Overview * Research Residency * Economic Research
Latest Advancements * GPT-5.5 * GPT-5.4 * GPT-5.3 Instant * GPT-5.3-Codex
Safety * Safety Approach * Security & Privacy * Trust & Transparency
ChatGPT * Explore ChatGPT(opens in a new window) * Business * Enterprise * Education * Pricing(opens in a new window) * Download(opens in a new window)
API Platform * Platform Overview * Pricing * API log in(opens in a new window) * Documentation(opens in a new window) * Developer Forum(opens in a new window)
For Business * Business Overview * Solutions * Contact Sales
Company * About Us * Our Charter * Foundation(opens in a new window) * Careers * Brand
Support * Help Center(opens in a new window)
More * News * Stories * Academy * Livestreams * Podcast * RSS
Terms & Policies * Terms of Use * Privacy Policy * Other Policies
(opens in a new window)(opens in a new window)(opens in a new window)(opens in a new window)(opens in a new window)(opens in a new window)(opens in a new window)
OpenAI © 2015–2026 Your privacy choices
English United States