Indholdsdata: News Quality Scoring Project vil kombinere det bedste indhold med de rigtige annoncer

Der kommer formentlig til at ske et skift indenfor digitale annoncer, hvor man vil gå væk fra den enorme fokus på målgrupper og brugerdata, der er nu, og i stedet fokusere mere på indhold (igen).

Det er en del af kernen i et blogindlæg, jeg skrev for Medietrends.dk i sidste uge, hvor jeg spurgte: “Er indholdsdata det næste, medierne brænder af?”.

I indlægget advarer jeg medierne mod ukritisk at lukke teknologifirmaer ind for at høste indholdsdata eller at gøre ingenting for derefter at være nødt til det for at kunne følge med markedet. Sådan er det desværre gået med brugerdata, som jeg også skriver i mit blogindlæg.

Jeg skrev blandt andet:

“Forestil dig lige det her: Et stykke tredjepartsteknologi, der bliver sluppet løs på online-mediers indhold på den ene eller anden måde for at analysere indhold og som dermed kan dyppe snabelen i udgivernes bankende hjerter.

Der hersker næppe nogen tvivl om, at det vil skabe nogle gode “services” for såvel brugere (dataene kan bruges til at knytte eksempelvis artiklerne sammen i fortællinger) som annoncører, fordi man nu rent faktisk får et billede af, hvad de enkelte artikler handler om.”

Min advarsel går ud på, at medierne risikerer at sidde et sted, hvor data om såvel brugere som indhold ligger andre steder, så udgiverne blot er med til at fodre et enormt monster, mens de selv står ude i kulden.

Da jeg sad ved tastaturet i sidste uge skrev jeg om et scenarie, jeg kunne forestille mig. Jeg anede ikke, hvor tæt det viser sig at være på en meget reel fremtid.

For i dag læste jeg om et nyt projekt, The News Quality Scoring Project, hos Nieman Lab: “This project aims to “de-flatten” digital publishing by matching the best content with premium ads”.

Som overskriften på den artikel fortæller handler det om at kombinere det bedste indhold med de rigtige annoncer. Nærmest et ekko af, hvad jeg skrev på Medietrends.dk:

“Al denne viden samt et hav af andre parametre (såsom aktualitet og annoncørinteresse) kan bygge en virkelig stærk teknologi til at få de rette annoncer på de rette stykker indhold, så man på én gang rammer de rigtige brugere i den rigtige kontekst.”

For det er præcis, hvad manden bag det nye projekt, Frederic Filloux, har sat sig for.

Kort fortalt handler det om at få “premium”-annoncerne lagt på det indhold, der har taget længst tid at lave, eller som udgiverne af andre årsager vurderer som værende af højere kvalitet end så meget andet.

Det gør Filloux ved blandt andet at lade en algoritme (der indtil videre får hjælp af mennesker, mens den lærer) knase på forskellige data/viden om indholdet: længde i ord, “freshness vs. evergreen”, antal citater og så videre. De data bliver kombineret med en værdi for kvalitet, som udgiveren selv sætter.

Og det er faktisk en rigtig god idé.

Medierne holdes udenfor

Resultatet er et tal på en skala, der (og her bliver det interessant) forbliver internt i News Quality Scoring Project. Det vil altså sige, at medierne ikke kan se, hvordan deres indhold scorer. Filloux forklarer, at det er for at forhindre, at nogle udgivere begynder at “game” systemet (altså fifle med at snyde algoritmen – hvilket er et meget sandsynligt scenarie) og for at forhindre at nogle journalister bliver “hængt ud”, hvis deres artikler ikke scorer så højt.

Han taler dog også om, at det er vigtigt med transparens, og han overvejer at lade dele af projektet være open source. Det sidste, han ønsker, er at være censor, siger han til Nieman Lab.

Men kig på konsekvenserne, hvis dette projekt vinder frem – eller hvis metoden vinder frem, med andre firmaers produkter som dem, der laver databehandlingen. Så nærmer vi os det scenarie, hvor medierne ikke har adgang til kritisk viden om kvaliteten af deres indhold.

Hvorfor laver medierne det ikke selv?

Medierne har haft nærmest al tid i hele verden til at gøre dette selv, men man har haft for travlt med at lave indhold. Som den danske udvikler Søren Pedersen skriver i et andet blogindlæg på Medietrends.dk:

“Lige så gode som de danske medier er på den publicistiske front – og de er gode, også internationalt – lige så dårlige er de, når det kommer til teknologi og data. Den stærke publicistiske identitet har reduceret teknologi til et banalt spørgsmål om simpel fremføring (af nyheder). Alle andre udfordringer har man overladt til tredjepart, og de har boltret sig lystigt i et slaraffenland af gratis data.”

Det her er kernen af problemet. Og spørgsmålet er nu, om medierne (både herhjemme og globalt) har teknologi og/eller de mennesker ansat, der kan lave noget, der matcher det setup, Filloux (og helt sikkert andre, vi ikke har hørt om endnu) har gang i.

Og spørgsmålet er også, om det er vejen at gå. Skønt nogle medier (nok mest de internationale aktører) vil kunne få noget op at køre – vil de så kunne følge med, hvis dedikerede teknologifirmaer får øjnene op for at bygge produkter, der kan netop dette? Jeg tvivler.

I mit blogindlæg opfordrer jeg medierne til at anskaffe noget teknologi, der arbejder med dem. Det betyder ikke, at man skal begynde at fifle med indhold, så det scorer højere i en eller anden kvalitetsalgoritme – det betyder, at man selv har kontrol over og viden om sit indhold, så man selv kan vise de rigtige annoncer for de rigtige mennesker på det rigtige indhold.

I artiklen taler Filloux også om, at projektet måske i fremtiden skal kunne bruges til at skabe relationer mellem artikler. Ønsker medierne virkelig, at denne vigtige viden om ikke alene de enkelte stykker indhold, men også relationerne imellem dem, ligger et andet sted?

Det er muligt, nogle vil sige “vi er nødt til at have den teknologi, og så må vi betale den pris”, men det er risky business.

Foto: Pixabay / Pexels

 

Kan du lide, hvad du læste?

Så tilmeld dig nyhedsbrevet – så får du en mail hver weekend, blandt andet med den populære ugeopsamlingmedier, teknologi og digital udvikling:


 

Du kan naturligvis også følge med på Facebook:

Du kan også følge mig på Twitter:

Skriv din kommentar: