Wikipedia e bot editor: la storia di AntiVandalBot e Hagerman Bot

bot wikipedia hagerman antivandalbotSe state leggendo qui, avrete di sicuro aperto una pagina di Wikipedia nella vostra vita. Almeno una: più probabilmente alcune decine, quasi certamente centinaia o migliaia. Ma cosa c'è dietro a Wikipedia? I wikipediani, naturalmente: con il loro organizzatissimo e accurato lavoro.

Ma i wikipediani sono esseri umani: e per quanto precisi, si stancano e possono sbagliare. I bot invece, non si possono sbagliare: ed è proprio questa una delle storie si raccontano in Critical Point of View: A Wikipedia Reader, un saggio uscito quest'anno, segnalato anche da Bruce Sterling su Beyond the Beyond.

Potete ordinare il volume su networkcultures.org, oppure scaricarlo in pdf. Noi vi riproponiamo i punti salienti del capitolo The Lives of Bots, di Stuart R. Giger dopo il salto.

Verso la fine del 2006 i membri della versione in lingua inglese di Wikipedia iniziarono a prepararsi per la terza elezione del Comitato di Arbitrato, o ArbCom. Nelle loro stesse parole il comitato di dodici o più membri esiste per "imporre soluzioni definitive a dispute nate su Wikipedia che non era stato possibile risolvere né tramite discussioni pubbliche, né dagli amministratori, né da forme di mediazione". Con il compito di dirimere questioni controverse quando non c'è un orientamento preciso della comunità, i membri dell'ArbCom sono in una delle posizioni di maggior potere all'interno del progetto. ArbCom è infatti considerata come la corte suprema di Wikipedia, e ogni anno la sfida per esservi eletti sia particolarmente agguerrita. In quel caso particolare i candidati si presentarono nel novembre 2006; secondo le regole, erano considerati eleggibili tutti gli editor che avessero fatto almeno 1.000 edit al progetto Wikipedia, a data ottobre 2006.

I candidati che rispondevano a questi requisiti erano in tutto quaranta. Erano tutti esseri umani, tranne uno: AntiVandalBot, un bot che controllava le modifiche alle voci e grazie a sofisticati algoritmi valutava quali fossero da ritenere atti di vandalismo o spam. Il bot era stato ideato da un admin piuttosto noto, Tawker.

Non tutto il board era d'accordo con la decisione di inserire un bot, una macchina, all'interno di ArbCom. E adesso arriva il pezzo che sarebbe piaciuto ad Asimov, o a Ballard: un editor di Wikipedia rimuove il bot dalla pagina in cui è inserita la lista dei candidati.

AntiVandalBot reagisce subito: e ritenendo la sua cancellazione immotivata, si reinserisce automaticamente nella lista degli eleggibili. Paradossale e meraviglioso, no? Naturalmente la realtà non proseguì su questa scia: al reinserimento seguì una nuova cancellazione, a cui Tawker - un umano - rispose reinserendo il suo bot.

Arrivando in aiuto del suo bot, Tawker volle difendere il diritto di qualunque editor - macchina o umano che fosse - con più di un migliaio di edit sulle spalle di correre per le elezioni. "Bots are editors too!", anche i bot sono editor. Oggi non sono pochi i bot all'opera su Wikipedia, spiega sempre Giger


Alcune statistiche mostrano l'influenza degli algoritmi nel processo editoriale: in termini di numeri crudi, il numero di edit sulla versione inglese di Wikipedia, i bot automatici sono 17 dei 20 più profilici editor, e unendo il loro lavoro producono il 16% del totale degli edit. In altre Wikipedia le percentuali cambiano, e vanno da un 10% per Wikipedia giapponese al 30% di quella francese. Se in origine i bot erano progettati per gestire mansioni ripetitive e noiose, col tempo sono diventati sempre più sofisticati

e dalla manovalanza, si sono spostati verso un territorio nuovo, quello dell'admin

Oggi i bot non controllano solo il contenuto enciclopedico delle voci, ma anche la socialità degli utenti che fanno parte della community. Per fare un esempio: c'è una policy in Wikipedia chiamata "Three Revert Rule", o "3RR", che proibisce per alcune voci di cancellare gli edit di un altro user più di tre volte in ventiquattro ore. Un bot chiamato "3RRBot" scansiona queste violazioni e le segnala agli admin.

Interessante anche la storia di Hagerman Bot, sempre contenuta nel capitolo di Lives of the Bots. Se ne parla anche su DML Central:


Creato dall'omonimo user, Hagerman aggiungeva automaticamente user name e orario ai commenti degli utenti che apparivano nei forum e nelle pagine di discussione. Un atto che sembrava assolutamente innocente, sia ad Hagerman che al comitato di wikipediani che aveva approvato l'uso del bot; dopotutto, erano le stesse linee guida di Wikipedia a raccomandare di agire in quel modo. Già questo bot, relativamente semplice, scatenò lunghe polemiche tra i wikipediani, che spiegavano di non avere più il controllo su come e quando il bot potesse editare i loro commenti (è spiegato dettagliatamente nel saggio di Giger, ndt) Il dibattito si concluse con la decisione che i bot dovessero essere "exclusion compliant" ovvero che dovessero offrire la possibilità agli altri user di impedirgli di intervenire su di loro, una specie di opt-out applicato ai bot.

La storia di HagermanBot

si concluse comunque nel giro di circa un anno, ovviamente su Wikipedia c'è la storia completa, se volete leggerla. Fu sostituito da SineBot, che oggi, dalla sua precisa pagina wiki, offre un dettaglio di circa un milione di edit realizzati da quando è entrato in funzione.

Foto | Flickr

  • shares
  • Mail