Digital Content Creation

Als Digital Content Creation wird der Bereich innerhalb einer Produktionspipeline bezeichnet, der sich mit der Erstellung von multimedialen Inhalten beschäftigt. Darunter werden verschiedenste Technologien zusammengefasst. Generell fallen alle Werke, die grafischer Natur sind und computergestützt erzeugt wurden, in den Bereich der DCC. Da die Erstellung dieser Inhalte meistens ein kreativer Prozess ist, wird eine Fachkraft innerhalb eines Bereiches der DCC fast immer als Artist bezeichnet (3D-Artist, Compositing-Artist …).

Der Begriff Content Creator (Medienschaffender) hingegen bezeichnet zumeist Personen mit Produktionswissen, die die Schaffung von Inhalten kreativ leiten (z. B. Regie führen). Die digitale Content Creation findet heutzutage oftmals außerhalb der Unternehmen statt, für die sie erfolgt, da die Spezialisierung und das Know-how von Artists und Content Creators innerhalb eines Unternehmens selten geleistet werden kann beziehungsweise gegeben ist, so dass üblicherweise auf Projektbasis für verschiedene Kunden gearbeitet wird.[1] Der Übergang zur Tätigkeit von Influencern ist fließend.[2]

Richtlinien zur Inhaltserstellung

Inhaltsplattformen haben Richtlinien eingeführt, um Desinformation und schädliche Inhalte zu verringern.[3] YouTube entfernt Inhalte mit potenziell schädlichen Falschinformationen und bevorzugt verifizierte Quellen.[4] Meta löscht Inhalte, die zu Gewalt oder Schaden aufrufen, und arbeitet mit externen Faktenprüfern zusammen,[5] stellte aber Anfang 2025 die Faktenprüfung politischer Inhalte ein.[6] TikTok kennzeichnet ungeprüfte Inhalte und warnt vor deren Weitergabe.[7]

Diese Richtlinien beeinflussen die Erstellung und Monetarisierung von Inhalten.[8][9] Verwarnungen und Sperren schränken die Reichweite und Einnahmen der Ersteller ein und können zu Selbstzensur führen.[10] Fachleute fordern mehr Transparenz und öffentliche Kontrolle der Durchsetzungspraktiken.[11]

Die Durchsetzung der Richtlinien variiert je nach Plattform. YouTube nutzt ein Drei-Stufen-Modell mit Verwarnungen und möglichen Sperren,[12][13] TikTok schränkt Funktionen ein und sperrt Konten bei wiederholten oder schweren Verstößen,[14][15] und Meta entfernt weiterhin Inhalte mit nachweislich schädlicher Desinformation.[16][17]

Die begrenzte Transparenz der Plattformen erschwert die Bewertung der Entscheidungen. Fachleute empfehlen daher öffentliche Berichte und externe Audits, um Inhalte fairer und nachvollziehbarer zu machen.[18][19]

Branchen

Einzelnachweise

  1. What is a content creator and why do I need one? | Weber Design | Website Design, Digital Marketing & More. 23. Juni 2018, archiviert vom Original (nicht mehr online verfügbar) am 23. Juni 2018; abgerufen am 23. März 2020.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/weberdesign-ak.com
  2. Kim Torster: Content Creator und Influencer: So unterscheiden sie sich. In: Business Insider. 23. März 2023, abgerufen am 21. Mai 2023.
  3. How should social media platforms combat misinformation and hate speech? In: brookings.edu. Abgerufen am 24. Juni 2025 (amerikanisches Englisch).
  4. YouTube Policies Crafted for Openness. In: YouTube. Abgerufen am 24. Juni 2025.
  5. Misinformation – Meta Transparency Center. In: Meta. Abgerufen am 24. Juni 2025.
  6. Meta Ends Fact-Checking, Raising Risks of Disinformation to Democracy. In: Union of Concerned Scientists. 4. Februar 2025, abgerufen am 24. Juni 2025 (amerikanisches Englisch).
  7. Combating harmful misinformation. In: TikTok. Archiviert vom Original am 22. März 2025; abgerufen am 24. Juni 2025 (englisch).
  8. A Guide to Content Moderation for Policymakers. In: Cato Institute. Abgerufen am 24. Juni 2025.
  9. How to build creator business. Monetization Strategies for Digital Creators. In: MRSpaces. Abgerufen am 24. Juni 2025 (englisch).
  10. Perspective: Tackling Misinformation on YouTube. In: YouTube. Abgerufen am 24. Juni 2025 (amerikanisches Englisch).
  11. What Do We Mean When We Talk About Transparency? In: International Journal of Communication. Abgerufen am 24. Juni 2025.
  12. Business Standard: What is YouTube’s 3 strike rule and fair use policy. In: YouTube copyright controversy. 28. Mai 2025, abgerufen am 24. Juni 2025.
  13. Perspective: Tackling Misinformation on YouTube. Abgerufen am 24. Juni 2025 (amerikanisches Englisch).
  14. TikTok (ByteDance Ltd.). Abgerufen am 24. Juni 2025.
  15. Combating harmful misinformation. Archiviert vom Original am 22. März 2025; abgerufen am 24. Juni 2025 (englisch).
  16. Misinformation – Meta Transparency Center. In: Meta. Abgerufen am 24. Juni 2025.
  17. Meta Ends Fact-Checking, Raising Risks of Disinformation to Democracy. 4. Februar 2025, abgerufen am 24. Juni 2025 (amerikanisches Englisch).
  18. Nicolas P. Suzor, Sarah Myers West, Andrew Quodling, Jillian York: What Do We Mean When We Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation. In: International Journal of Communication. Band 13, Nr. 0, 27. März 2019, ISSN 1932-8036, S. 18 (ijoc.org [abgerufen am 24. Juni 2025]).
  19. Charis Papaevangelou, Fabio Votta: Content Moderation and Platform Observability in the Digital Services Act. In: TechPolicy.Press. 29. Mai 2024, abgerufen am 24. Juni 2025 (englisch).