Desde mediados de 2024, varios creadores comenzaron a notar alteraciones sutiles en sus videos, como una piel excesivamente suavizada o bordes artificialmente definidos, lo que llevó a especulaciones en redes sociales y foros.
Ante la creciente polémica, Rene Ritchie, enlace con creadores de YouTube, confirmó el experimento, explicando que la plataforma utiliza "tecnología de machine learning tradicional" para reducir el ruido, corregir desenfoques y ajustar la nitidez durante el proceso de subida. Ritchie enfatizó que no se trata de IA generativa, sino de modelos entrenados para optimizar la calidad de imagen, un proceso similar al que realizan los smartphones. Sin embargo, esta distinción ha sido calificada como insuficiente por expertos como Samuel Woolley, de la Universidad de Pittsburgh, quien argumenta que el machine learning es una forma de IA y que el problema central es la manipulación de contenido sin el consentimiento de su autor. La situación ha reavivado el debate sobre la autenticidad en la era digital. Al modificar los videos en nombre de una mejor "experiencia de usuario", la plataforma diluye la certeza sobre lo que es real y lo que ha sido alterado por un algoritmo, erosionando la confianza del público. Este caso se suma a controversias similares, como las fotos de la luna mejoradas por IA en dispositivos Samsung, y traslada la discusión al formato de video, donde la línea entre lo genuino y lo generado se vuelve aún más difusa.