Gpt-4o es mas barato pero se extiende de más en comparación a gpt-4-turbo

He estado probando chat gpt-4o y chat-gpt-turbo, ambas en el Playground para quienes usan la API y como sabrán gpt-4o tiene un precio 50% menos que gpt-4-turbo pero según he probado, aunque gpt-4o es mas barato, se extiende más de la cuenta en responder, lo cual a la larga se produce un gasto muy parecido a que se hiciera con gpt-4-turbo. Sumado a que a veces no sigue las indicaciones de forma correcta en comparación a gpt-4-turbo, lo que hace que los tokens utilizados se desperdicien.

Luego le das la misma indicación a gpt-4-turbo y la da sin problemas y sin desperdiciar tokens (en comparación a gpt-4o).

Sabemos también que se puede limitar las respuestas en “Maximun Tokens” pero aun si lo limitas, si la versión de gpt se extiende demasiado al responder, simplemente la respuesta quedará entre cortada.

También sucede que a veces estoy revisando y solicitando respuestas de diferentes longitudes, a lo cual se vuelve molesto estar cambiando “Maximun Tokens” cada pocas respuestas.

¿A alguien más le pasa o es simplemente mi percepción? He probado varias veces y gpt-4-turbo es más preciso en seguir indicaciones, lo cual evita que se desperdicien tokens al tener que detenerlo