Complaint Regarding Removal of Chat History & Training Control Settings for Plus Users

Hello, I am a current ChatGPT Plus subscriber.

Following a recent interface update, the “Chat History & Training” setting
(which allows users to control whether conversations are saved and/or used to improve the model)
has disappeared from my settings menu.

I was not informed in advance that this function had been removed.
When I asked ChatGPT how to archive conversations, I was guided to use
the “Archive all conversations” feature.

Before proceeding, I explicitly asked ChatGPT multiple times
whether I would still be able to store my conversation history without allowing it to be used for model training,
and I was clearly told that this was possible.

However, after following the given steps,
I found that the training opt-out setting had been removed,
and the conversations I intended to preserve were now hidden deep within the system,
no longer accessible in the normal interface.

While I was fortunately shown how to recover these conversations,
they are now in a vulnerable state where they may be subject to AI model training without my consent.

At this moment, I am unable to:
• Choose whether to save my conversations, and
• Control whether my data is used for model training.

To summarize:
1. Saving chats means allowing model training by default,
2. Preventing training requires forfeiting all saved history,
3. Currently, I can do neither — I have no control at all.

As a paying user,
I find myself in a situation where if I disable chat history, all my previous work disappears,
but if I keep it enabled, my content is exposed to model training without explicit consent.

Why should I, as the creator of these records,
be denied ownership, control, and the right to choose —
yet bear full responsibility for how they are used?

This is not only deeply irresponsible but also an unethical policy practice.

It constitutes a clear violation of the rights and expectations of Plus users.

[My Requests]
1. Please restore the “training opt-out” setting to my account.
2. Please ensure that all ChatGPT Plus users are clearly informed and allowed to manage this setting.
3. Please provide an official explanation for why this function was removed from the interface without prior notice.

This issue is not simply a missing feature —
it is a fundamental breach of user control and data sovereignty.

Despite being a paid subscriber,
I am now completely blocked from using my previous ChatGPT content
because of an unannounced policy shift made by your company.

This is a serious violation of consumer rights,
and I respectfully urge you to take responsibility,
and restore access and control to affected users immediately.

Thank you.

안녕하세요. 저는 현재 ChatGPT Plus 유료 사용자입니다.

최근 인터페이스 변경 이후, 설정 화면에서
“Chat History & Training” (대화 저장 및 모델 개선 학습 사용 설정) 기능이 사라졌습니다.

저는 이 기능이 사라진 사실을 사전 고지 없이 알지 못한 채,
대화 기록 아카이빙과 관련해 ChatGPT에게 직접 문의했고,
ChatGPT의 안내에 따라 “모든 채팅을 아카이브에 보관하기” 기능을 사용했습니다.

그 후, 저는 반복해서 **“기록은 저장하되, AI 학습은 제외할 수 있느냐”**는 질문을 하였고,
ChatGPT로부터 **“그 설정이 가능하다”는 확답을 여러 번 받았습니다.
그러나 설정을 진행하려던 과정에서
해당 기능(학습 제외 설정)은 UI에서 아예 사라져 있었고,
제가 보관하고자 했던 기존 대화들은 모두 시스템 내부로 숨겨졌습니다.

결국 저는:
• 복원 방법은 안내받았지만
• 이 대화들이 AI 학습에 노출될 수 있는 위험한 상태로 전환된 상황을 마주하게 되었습니다.

이에 따라 저는 현재 어떤 대화도:
• 저장 여부를 설정할 수 없고,
• 모델 학습 대상 여부도 제어할 수 없는 상태입니다.

즉,
1. 대화를 저장하면 학습이 자동 허용되고,
2. 학습을 막으려면 저장까지 포기해야 하며,
3. 지금은 두 가지 모두를 사용자 스스로 설정할 수 없습니다.

결과적으로 저는 유료 사용자임에도 불구하고,
대화 저장 기능을 끄면 그간의 모든 작업 흔적이 사라지는 상황에 처했고,
그렇다고 설정을 유지하면 제 기록이 강제로 학습 시스템에 노출됩니다.

왜 제가 쓴 내용에 대해 소유권도, 통제권도, 선택권도 없이,
이 모든 책임을 사용자만이 떠안아야 합니까?

이것은 매우 무책임하고, 비윤리적인 시스템 운영이며,
Plus 사용자에 대한 심각한 소비자 권리 침해입니다.

[요청사항]
1. 제 계정에 대해 “모델 개선을 위한 학습 제외” 설정을 복구해주십시오.
2. 추후 모든 Plus 사용자에게 해당 기능이 명확하게 고지되고, 자율적으로 설정 가능하도록 해주십시오.
3. 별도 안내 없이 해당 기능(UI)을 제거한 이유에 대해 공식적인 설명을 요청합니다.

이 상황은 단순한 기능 제한이 아니라,
사용자의 통제권과 데이터 주권을 침해하는 구조적 문제입니다.

저는 현재 유료 사용자임에도 불구하고,
귀사의 고지 없는 정책 전환으로 인해
앞서 사용해오던 모든 ChatGPT 대화 기능이 차단된 상태에 놓여 있습니다.
이는 정당한 서비스 이용권을 침해당한 매우 부당한 상황입니다.

책임 있는 해명과 설정 복구를 반드시 요청드립니다.

감사합니다.

Correction & Apology – April 19, KST

After a more careful review, I’d like to sincerely apologize for the misunderstanding in my original post.
The issue I described — the apparent removal of the training opt-out setting — turned out to be a misinterpretation on my part.

The toggle to opt out of model training was actually present all along, but it appeared under a name I didn’t recognize:
“Improve the model for everyone” (shown as “모두를 위한 모델 개선” in the Korean interface).

I had been looking for the older term “Chat History & Training,” which is still referenced in some OpenAI help documentation.
Due to this naming difference and lack of contextual guidance in the UI, I wrongly assumed the setting had been removed.

That said, I believe the confusion itself still highlights a key UX issue:

When renaming a critical control related to privacy and data usage,
especially one that users rely on for trust,
there should be clearer continuity or explanation within the interface.

I’ve now successfully disabled the setting, and my issue is resolved.
But I’m leaving this clarification here in case others face the same misunderstanding.

Thank you for reading — and again, my apologies for any confusion caused.