Inhaltliche Beschreibung
In einer sehr komplexen Präsentation verdeutlichte Rump anschließend die Schwierigkeiten, die bei einer Rechteklärung im digitalen Raum zu überwinden sind. Dafür gebe es eine Fülle von Identifizierungssysteme, die Metadaten erzeugen. Diese Metadaten müssen ausgetauscht werden, bevor es überhaupt an den Austausch von Inhalten gehen kann. 90 Prozent von DRM sei die „Rechteklärung“ über den Austausch von Metadaten. Denn wie bei anderer Kommunikation gehe es darum, „Dinge von ihrem Kontext zu unterscheiden“. Das könne ein Computer normalerweise nicht. Was z.B. „a cat on mat“ sei, istg für die meisten Menschen sofort klar, aber für den Computer könne es auch ein Raupenfahrzeug auf einer Kabelmatte sein. Um diese Mehrdeutigleiten zu klären, sei die Entwicklung eines „rights data dictionary“ nötig. Denn „Automated info exchange needs (beside eficient syntax) unambiguous semantics.“ Nur dann werde DPE praktikabel.
Auf die Frage, wie teuer eine DRM-Infrastruktur sei, von welcher Größe an es sinnvoll sei, in einen solche Infrastruktur zu investieren, sagte Rump, das wisse er nicht ; bei Microsoft bekomme man die Technik derzeit sicher für'n Appel und'n Ei, aber das könne später sehr viel teuer werden.
DRM werde immer ein Modell bleiben, eine inadäquate Quantisierung, wenn es darum gehe, digitalen Gütern einen Wert zuzuweisen, aber diese inadäquate Quantisierung habe man im Supermarkt auch.
Ist ein Ausgleich verschiedener Interessen möglich, etwa die Abwägung was bezahlt werden muss, was Gemeineigentum bleibt? Im Prinzip ja; heute könne DRM das nicht, in Zukunft aber schon.
Kann eine Firma den Standard brechen (etwa indem sie auf andere Protokolle setzt), wenn es denn einen geben wird? Die Gefahr sei gegeben, das könne nicht individuell verhindert werden.
In einer sehr komplexen Präsentation – die ich daher hier nicht wiedergeben kann – verdeutlichte Rump anschließend die Schwierigkeiten, die bei einer Rechteklärung im digitalen Raum zu überwinden sind. Dafür gebe es eine Fülle von Identifizierungssysteme, die Metadaten erzeugen. Diese Metadaten müssen ausgetauscht werden, bevor es überhaupt an den Austausch von Inhalten gehen kann. 90 Prozent von DRM sei die „Rechteklärung“ über den Austausch von Metadaten. Denn wie bei anderer Kommunikation gehe es darum, „Dinge von ihrem Kontext zu unterscheiden“. Das könne ein Computer normalerweise nicht. Was z.B. „a cat on mat“ sei, istg für die meisten Menschen sofort klar, aber für den Computer könne es auch ein Raupenfahrzeug auf einer Kabelmatte sein. Um diese Mehrdeutigleiten zu klären, sei die Entwicklung eines „rights data dictionary“ nötig. Denn „Automated info exchange needs (beside eficient syntax) unambiguous semantics.“ Nur dann werde DPE praktikabel.
Auf die Frage, wie teuer eine DRM-Infrastruktur sei, von welcher Größe an es sinnvoll sei, in einen solche Infrastruktur zu investieren, sagte Rump, das wisse er nicht ; bei Microsoft bekomme man die Technik derzeit sicher für'n Appel und'n Ei, aber das könne später sehr viel teuer werden.
DRM werde immer ein Modell bleiben, eine inadäquate Quantisierung, wenn es darum gehe, digitalen Gütern einen Wert zuzuweisen, aber diese inadäquate Quantisierung habe man im Supermarkt auch.
Ist ein Ausgleich verschiedener Interessen möglich, etwa die Abwägung was bezahlt werden muss, was Gemeineigentum bleibt? Im Prinzip ja; heute könne DRM das nicht, in Zukunft aber schon.
Kann eine Firma den Standard brechen (etwa indem sie auf andere Protokolle setzt), wenn es denn einen geben wird? Die Gefahr sei gegeben, das könne nicht individuell verhindert werden.
DRM müsse man sich als dreibeinigen Hocker vorstellen, der auf den Beinen Gesetze, Technologie und Geschäftsmodellen ruhe. Es bestehe aus zwei Teilen: Digital Policy Management (DPM) und Digital Policy Enforcement (DPE). DPM beschäftige sich mit der Frage, wie man digitale Objekte und die Rechte, die mit ihnen verbunden sind, managen kann. DPM sei dabei die Infrastruktur, auf der verschiedene DPEs aufbauen. Manche vertrauensbasierten Geschäftsmodelle kämen ohne DPE aus, z.B. die Scientific Technical Medical Publishers.
Wenn es wenig Vertrauen gibt, werde alles sehr komplex, weil die Wertschöpfungsketten so lang sind, die zu überwachen sind. Daraus folgten sehr komplexe Strukturen für Angebote und Transaktionen: permissions, prohibitions, conditions müssen geregelt sein. DRM sei der Versuch, die Kommunikation von Maschine zu Maschine zu verwalten. Wie könne man das standardisieren? Es gebe
- die Standardisierung durch Dominanz (wie bei Microsofts PowerPoint)
- die vollständige Standardisierung (dafür gebe es kaum Beispiele)
Dabei sei Interoperabilität gegeben für alle Nutzer. Niemand könne diktieren, was passiert. Der Nachteil: das System sie inflexibel, z.B. bei Sicherheitsproblemen, es brauche Zeit, darauf zu reagieren. Wenn es Keine formelle Standardisierung, sei das System flexibel, es könne schnelle security updates geben, aber der Weg zum Standard sei schmerzhaft, mit inkompatiblen Systemen und Abhängigkeit von einem Anbieter. Ein guter Kompromiss sei, Elemente zu standardisieren: das sei flexibel, es könne schnelle Updates geben, man habe kein monolithisches System, aber es sei schwierig zu standardisieren.
Als eine Art Case Study beschrieb Rump die Verhandlungen über den SDMI-Standard. Eins der wenigen wichtigen Ergebnisse sei gewesen, dass es das erste Forum war, auf dem es eine Diskussion der Rechte in einer digitalen Welt gab. Warum habe es nicht funktioniert? Es gab zu viele verschiedene Interessengruppen (Music, IT, Mobile), zu viele verschiedene Gruppen von Experten (Anwälte, Ingenieure, Geschäftsleute), das Programm sei zu ambitioniert gewesen. Es hätten Grundlagen gefehlt, außerdem fundamentale Unterschiede in den Zielen.