Eventbrite

Helpcentrum

Hoe Eventbrite content personaliseert en modereert

Laatst bijgewerkt: 17 februari 2024. Het doel van Eventbrite is de wereld bij elkaar te brengen met live ervaringen. We zetten ons in om een marktplaats te creëren die organisatoren en consumenten vertrouwen om veilige, inclusieve ervaringen te bieden. We vertellen in dit artikel meer over hoe we onze marktplaats beschermen en hoe we de content op ons platform personaliseren en modereren.

In dit artikel

  • Hoe we content personaliseren
  • Hoe we content modereren
  • Hoe we contentschendingen detecteren
  • Hoe we content controleren

Hoe we content personaliseren

We willen je graag de meest relevante ervaringen op de Eventbrite-marktplaats laten zien. Daarom gebruiken we de gegevens die we van je hebben om bepaalde evenementen voor je uit te lichten. Om je evenementpagina en advertenties persoonlijker te maken, gebruiken we onder andere content die je hebt bekeken, waarop je hebt geklikt, die je hebt geliket, die je hebt gevolgd of waarnaar je hebt gezocht, en de informatie die je verstrekt wanneer je een van onze surveys invult, je registreert voor of tickets koopt voor een evenement. Meer informatie over hoe we je gegevens gebruiken en beschermen vind je in ons Privacybeleid

Hoe we content modereren

Contentmoderatie is het proces waarbij content op een platform wordt gecontroleerd en er actie wordt ondernomen als deze content illegaal, ongepast of schadelijk blijkt te zijn. In onze Communityrichtlijnen wordt uitgelegd hoe we onze community beschermen. Ze dienen ook als de richtlijnen voor de content die we graag zien en de content die de integriteit van ons platform in gevaar brengt en niet is toegestaan. Om misbruik van ons platform tegen te gaan, zetten we verschillende tools en processen in, waaronder proactieve detectie via machine learning-technologie en regelgebaseerde systemen. Voor reactieve detectie gebruiken we communityrapporten en menselijke beoordelingen.

Hoe we contentschendingen detecteren

Proactieve detectie

Een groot deel van de contentschendingen wordt proactief door ons gedetecteerd. De twee voornaamste methoden daarbij zijn: (1) regelgebaseerde systemen (handmatig opgestelde regels om content op te sporen die aan bepaalde criteria voldoet) en (2) machine learning-technologie (een statistisch proces waarbij we een model trainen met eerdere voorbeelden om bepaalde patronen te herkennen en voorspellingen te doen over nieuwe gegevens). 

Regelgebaseerde systemen zijn effectief wanneer er een paar eenvoudige criteria zijn die op verhoogd risico wijzen. Bij machine learning-technologie wordt er naar meerdere factoren gekeken, waardoor dit effectiever is bij complexe patronen die op verhoogd risico wijzen. Beide detectiestrategieën worden gevalideerd via offline analyses en gecontroleerd om nooit een verbeteringskans mis te lopen.

Reactieve detectie

Naast de proactieve methoden die hierboven zijn beschreven, speelt onze community een grote rol bij het rapporteren van content die zij als schadelijk beschouwen. Ze kunnen dit doorgeven door contact met ons op te nemen of via de link Dit evenement rapporteren die in de voettekst van elk evenement staat. Hoewel we ons best doen schadelijke content proactief te verwijderen voordat iemand deze te zien krijgt, is deze open communicatielijn een essentieel onderdeel van ons programma voor contentmoderatie. 

Hoe we content controleren

Hoewel automatisering cruciaal is voor het opschalen van ons programma voor contentmoderatie, zijn er nog steeds gebieden waar menselijke beoordeling nodig is en misschien zal dit altijd wel het zo blijven. Het kan bijvoorbeeld lastig zijn om te beoordelen of iemand wordt gepest, omdat hierbij vele factoren en de context een rol spelen. 

Dit is wat er gebeurt wanneer ons team content controleert:

  • Controle: ons team controleert de content en beslist of deze ons beleid schendt of illegaal is.ren Ons team kan, afhankelijk van de details van het geval, besluiten om alleen de gemelde content te controleren of het account in zijn geheel eens nader te bekijken. 

  • Informatie inwinnen (indien nodig): als het team niet kan bepalen of de content ons beleid schendt, kunnen ze om aanvullende informatie vragen bij de betrokken partijen (bijv. de accounteigenaar of de persoon die de content heeft gemeld).

  • Actie: als blijkt dat de content ons beleid schendt, neemt het team gepaste actie. Het kan bijvoorbeeld content van zoekresultaten uitsluiten, content van evenementpagina's verwijderen, de publicatie van evenementpagina's op de markplaats intrekken en/of de toegang tot het account schorsen/beëindigen.

  • Communiceren: wanneer het probleem is opgelost, informeert het team de betrokken partijen over de genomen acties en de redenen daarvoor. Betrokken gebruikers kunnen hierop reageren om in beroep te gaan tegen de beslissing. 

Onze prioriteit is schadelijke content snel te verwijderen met zo min mogelijk verstoring voor onze community. Dankzij een combinatie van proactieve en reactieve detectie aangevuld met menselijke beoordeling van geëscaleerde content, waar gerechtvaardigd, kunnen we content snel opsporen en gepaste actie ondernemen.

De wereld om ons heen verandert en daarom moet onze manieren van contentmoderatie dat ook. We werken ons programma voortdurend bij in anticipatie op of als reactie op nieuwe gedragingen en trends, en vermeende bedreigingen voor de integriteit van de Eventbrite-marktplaats.

Heb je nog vragen?