O YouTube começou a cortar a monetização de canais baseados em trailers falsos de filmes e séries produzidos com inteligência artificial (IA). A informação é do site Deadline, que foi o primeiro a revelar detalhes sobre a explosão desse tipo de contéudo na plataforma.
Ao menos dois canais desse segmento tiveram alguns dos trailers desmonetizados: o KH Studio (684 mil inscritos) e o Screen Culture (1,4 milhão de inscritos). Esses são alguns dos criadores de conteúdo mais populares no ramo, com vídeos que ultrapassam até 10 milhões de visualizações.
Até o momento, a plataforma de vídeos não se manifestou oficialmente sobre o caso. Porém, é possível que ambas tenham caído em alguma penalidade sobre infração de direitos autorais, já que os trailers utilizam materiais similares e a aparência de marcas e personagens já existentes, ou então sobre “conteúdo enganoso”, já que são criados para ganhar cliques com base na curiosidade do público.

De acordo com a reportagem original, estúdios como Warner Bros. Discovery e Sony estariam por trás da perseguição contra esse tipo de conteúdo. Essas companhias ainda tentaram reverter a monetização desses vídeos para elas mesmas, mas isso ainda não foi definido.
Como funcionam os trailers feitos por IA
Canais como o KH Studio e o Screen Culture publicam em larga escala trailers e teasers que não são oficiais. Na grande maioria dos casos, não há qualquer indicativo no título ou na imagem de destaque (thumbnail) de que aquela é uma paródia ou uma criação artificial. Em alguns deles, há o aviso de que esse é um “trailer conceitual” no título e, na descrição, o indicativo de que ele foi criado “por propósitos artísticos e de entretenimento”.
Os trailers podem ser tanto de produções que de fato estão próximas de estrear, como filmes de selos e franquias como Marvel e DC Comics, quanto longas-metragens que sequer foram anunciados, como sequências inexistentes de Forrest Gump, Harry Potter e A Saga Crepúsculo.

Os trailers são todos montados com cenas curtas produzidas por IA, inclusive usando a aparência de atores e atrizes que estariam envolvidos na produção. Alguns deles contam com imagens de arquivo ou de outras produções na montagem, dando a aparência de que aquele é um vídeo legítimo.
Em entrevista ao Deadline, o responsável pelo Screen Culture não vê “danos” ao publicar esse tipo de conteúdo e alegou que tem trailers legítimos também postados no canal. O dono do KH Studio diz que passou a trabalhar no canal em tempo integral nos últimos três anos e lamenta a decisão do YouTube, pois o objetivo “sempre foi explorar possibilidades criativas e não representar falsamente lançamentos reais“.
O debate entre IA e direitos autorais
A criação de conteúdos de IA em plataformas digitais ainda atravessa um momento de incertezas. O debate gira em torno de questões como infração de propriedades de empresas, como personagens ou marcas, e também quem deve receber os ganhos financeiros pelo consumo de conteúdo, como a monetização via YouTube.
Os conteúdos como trailers falsos criados por IA e imagens artificiais voltadas para gerar engajamento integram o conceito de slop, nome dado ao conteúdo por plataformas generativas com pouca preocupação com a qualidade, feitos de forma massiva e populares em redes sociais.
Além disso, o treinamento de ferramentas de IA usando materiais copiados sem autorização também é um tema longe de se esgotar. Recentemente, a moda de fazer imagens “no estilo do Estúdio Ghibli” usando o ChatGPT foi um fenômeno, mas causou discórdia nas redes sociais por “roubar” o estilo artístico de ilustradores.
Você sabe identificar se um texto foi ou não escrito por uma IA? Confira essas dicas para ajudar na avaliação!