Sabato, dopo millenni che non mi capitava più, sono andata in Duomo a Milano. Ero in compagnia di un’amica greca che visitava per la prima volta la città.
La coda all’ingresso era rapidissima, ma una volta giunti in cima c’era un duplice controllo: poliziotti col metal detector da una parte e controllo “coerenza abiti” dall’altra. Noi due eravamo in canotta e ci è stato detto che non potevamo entrare.
Il pippone sul fatto che se ho la canotta ed entro in qualsiasi chiesa non turistica nessuno mi dice niente, lo risparmio, mi preme però sottolineare che la soluzione media del problema è acquistare alla modica cifra di 3€ una simil pashmina (completamente di rete, che copre le spalle solo virtualmente!) da uno dei venditori ambulanti abusivi che ronzano attorno alla coda.
Io sarei dispostissima a pagare 3€ di ingresso per visitare il Duomo, a patto che loro mi forniscano un coprispalle che io puntualmente restituirei all’uscita; foraggiare i venditori abusivi e trovarmi poi un oggetto che finisce nel cassonetto appena terminato il giro mi sembra assolutamente immorale.

(La prima puntata la potete trovare qui)

Al grido di “finanziamo i giovani!” il ministro Mariastella Gelmini aveva indetto un bando per il finanziamento di un numero imprecisato di progetti di ricerca. La condizione necessaria per partecipare è che ci fosse almeno un giovine a fare da uomo di paglia in cima al progetto presentato (i meccanismi del bando erano tali che i baroni universitari avevano un notevole potere di ricatto verso chiunque avesse timidamente cercato di sganciarsi). Comunque sia di bandi destinati, almeno ipoteticamente, ai giovani non è che ce ne siano molti è così io e qualche altro migliaio di miei coetanei ci siamo sbattuti a presentare il miglior progetto che riuscivamo a fare nella (ingenua) speranza di vincere qualche soldino per pagarci un contratto Co.Co.Co. triennale che quantomeno ci togliesse dalla testa quella spada di Damocle che sono gli assegni di ricerca (che, se tutto va bene, vanno rinnovati di anno in anno senza alcuna garanzia).

Ora, i soldi a disposizione non erano tantissimi mentre il numero di progetti presentati è stato immenso, quindi non è che io ci speri di sul serio di vincere. Tuttavia mi farebbe piacere sapere come sono andate le valutazioni. Anche perché nel bando si diceva che: “La procedura di valutazione si conclude entro 180 giorni dalla data di scadenza del bando“. Dato che la scadenza per la presentazione dei progetti era il 27 febbraio 2009 ad oggi i giorni passati sono 188 e non si hanno notizie. Non è che io mi scandalizzi per una o due settimane di ritardo, alla fin fine siamo in Italia. Quello che mi fa un po’ arrabbiare è che a metà luglio ancora non avessero nemmeno nominato la commissione e che, con tutta probabilità non l’abbiano fatto nemmeno adesso.

Va bene avere dei ritardi. Va bene non ammazzarsi di lavoro ad agosto. Va bene tutto. Però io mi sento un po’ preso per il culo lo stesso.

Aggiornamento 7/09/2009: In risposta ad una mia mail dal minstero mi confermano che la commissione di valutazione non si è ancora insediata (e siamo a sei mesi e mezzo dallo scadere del bando).

Aggiornamento 1/10/2009: Ancora nulla. Il governo dice che la colpa è del Cineca che avrebbe avuto dei ritardi (216 giorni di ritardo per preparare una lista di 40 possibili commissari da cui sorteggiarne 20?). Se contavate su questo FIRB temo che facciate meglio a mettervi l’anima in pace. Io l’ho fatto.

Aggiornamento 5/10/2009: Interrogazione sul ritardo del FIRB da parte di Manuela Ghizzoni (PD)

Aggiornamento 15/10/2009: È già le terza volta in pochi giorni che sento girare la voce (non supportata da alcuna prova) che i soldi del FIRB siano stati usati per altro e che quindi i ritardi siano una conseguenza del voler coprire questo fatto. Speriamo che sia una leggenda metropolitana!

Aggiornamento 20/10/2009: Pare che adesso, se si scrive al MIUR in cerca di notizie sul FIRB, la risposta sia diventata: “I risultati saranno noti entro la fine dell’anno o al massimo entro gennaio 2010” (la notizia arriva dai ragazzi dell’APRI). Speriamo in bene ma, francamente, inizio a crederci pochino…

Aggiornamento 20/10/2009: Lettera aperta (con annessa petizione da firmare) per chiedere al ministro di spiegare i motivi di questi assurdi ritardi e magari anche di metterci una pezza. Aderite numerosi!

Aggiornamento 26/10/2009: Durante il Question time (in risposta all’Interrogazione della Ghizzoni sul FIRB) si dice che: “si sta provvedendo a porre in essere tutte le possibili iniziative che consentiranno di accelerare al massimo l’iter procedurale, e di giungere alla nomina degli esperti cui affidare la valutazione scientifica entro il corrente mese di ottobre, allo scopo di chiudere tale processo entro il prossimo mese di dicembre“. Se interpreto correttamente l’Italiano questo vuol dire che la commissione ancora non c’è. Quando la Ghizzoni fa notare che questa non è una risposta l’inossidabile Pizza (che, ricordiamolo, è sottosegretario con delega alla ricerca) dichiara, fondamentalmente, che la colpa è della Gelmini e non sua. Andiamo bene…

Aggiornamento 2/11/2009: Voci di corridoio (non verificabili) dichiarano che i progetti FIRB sono al vaglio di una commissione (composta, in contrasto con quanto promesso nel bando, solo da italiani) che dovrebbe depositare sulla scrivania della Gelmini i risultati della valutazione entro il 20 novembre. Chi vivrà vedrà. (fonte: APRI)

Aggiornamento 5/11/2009: Finalmente un comunicato ufficiale del ministero invece delle solite illazioni e voci di corridoio! Riassunto per chi non ha voglia di leggere: gli sono arrivati 3792 progetti e, siccome loro se ne aspettavano molti meno, si sono trovati nella situazione di dover riorganizzare la procedura di valutazione. La fine della valutazione è quindi spostata al 31 dicembre 2009 (nota bene: “fine della valutazione” NON vuol dire “giorno entro il quale arriveranno i risultati ai partecipanti”). I fondi disponibili per il FIRB sono di circa 50 milioni di Euro (che loro dichiarano passibile di aumento) e questo vuol dire suppergiù 60 progetti finanziati (approssimativamente l’1,6% del totale). In realtà queste erano tutte notizie che già giravano nei corridoi ma è bello una volta tanto avere dei dati ufficiali. Sulla loro incapacità di prevedere (almeno approssimativamente) il numero di domande che sarebbero state presentate invece è meglio stendere un velo pietoso dato che numeri piuttosto vicini alla realtà erano piuttosto facili da ipotizzare (il direttore del mio dipartimento, dopo 3 giorni dall’uscita del bando, stimava circa 3500 domande).

aggiornamento 26/12/2009: si dice a giro (ma non saprei dire su quali basi) che i risultati dovrebbero arrivare a metà gennaio.

aggiornamento 28/12/2009: Mi è appena arrivata una mail da quelli del Cineca dove mi dicono che il mio (in realtà “nostro” dato che non l’ho preparato da solo) progetto alle audizioni previste dal bando. In più si specifica che le audizioni si svolgeranno fra gennaio e febbraio (in data da specificarsi in una futura mail) e che solo al termine verrà deciso chi deve essere finanziato. Il lato positivo è che qualcosa si stà smuovendo, quello negativo è che a marzo io potrei essermi già tramutato in un cervello i fuga…

Comunque, tramite quelli dell’APRI vi segnalo anche la composizione delle commissioni e la lista completa di quelli chiamati per le audizioni.

Agosto è un mese crudele con Wikipedia.
Quest’anno ha iniziato Zichichi parlando di internet, il giornale radio RAI mi ha chiesto un commento sull’affidabilità di Wikipedia, l’ANSA ha rilanciato con il controllo delle bio dei viventi citando i tedeschi, Radio 3 Scienza ha cercato di intervistarmi per parlarne (ma io ho avuto problemi con il cellulare), mi ha telefonato Il Giornale per saperne di più ma io ero ormai offline da 10 giorni e li ho dirottati sul mio vice, poi varie ed eventuali che sono uscite fino a ieri (arriva Wikipedia a colori, non ci sono donne che scrivono/usano Wikipedia).

Parte 1 · Parte 3

Se per caso avete letto questa notizia (magari altrove, in italiano) e non avete visto l’aggiornamento, forse è il caso che abbiate qualche info in più.

Ai primi di agosto del lontano 2007, a Taipei, dove mi trovavo per partecipare a Wikimania, ho conosciuto Luca de Alfaro, che si trovava lì in qualità di speaker per presentare un suo studio, intitolato “A Content-Driven Reputation System for the Wikipedia“.

In che cosa consiste il sistema presentato?
Immaginaniamo di poter calcolare con un algoritmo la reputazione di ogni utente, basato sulle sue attività di autore e collegandola quindi alla longevità dei suoi contributi.
Ogni contributo viene analizzato in estremo dettaglio: ogni parola viene etichettata in modo da renderla riconoscibile e poter tenere traccia della sua vita. Ora diamo alcune semplici regole:
* più il contributo di un utente sopravvive a modifiche successive, più punti dà al suo autore
* i contributi rollbackati (ossia eliminati subito) danno dei punti negativi, a meno che non siano reintrodotti da un utente successivo.
La reputazione si calcola su tutti gli edit di un utente, non solo su quelli più recenti.

Se alla reputazione di ciascuno viene associato un colore, più scuro se questa è bassa e sempre più chiaro quando si innalza, è possibile colorare i testi in base alla reputazione di chi li ha inseriti. I vecchi testi sono colorati in base alla reputazione del loro autore e di tutti i revisori che l’hanno seguito.
Man mano che il testo permane immutato in una voce, lentamente si scolora.

Visivamente chi consulta la voce può identificare il testo con sfondo chiaro come testo attendibile (perché rimasto immutato attraverso diverse versioni) e il testo con sfondo scuro come testo da verificare.

Negli ultimi due anni il progetto si è evoluto ulteriormente, rilasciando una extension per MediaWiki e un addon per Firefox.

Verrà quindi installato su Wikipedia in autunno, come si legge in giro? No.
Ad Aprile, durante l’incontro dei dev a Berlino, si è discusso di avviare un test congiunto, ma al momento non si è ancora mosso nulla.
Sono così categorica perché a quel che mi risulta non c’è stata alcuna discussione interna, né è mai stata avviata una consultazione della community.

Indubbiamente lo strumento è interessante, come nota Erik Möller, dà la possibilità di mappare la storia di una voce e di scoprire in fretta chi è l’autore di una determinata frase e idealmente permette di calcolare la miglior revisione di una voce, che potrebbe essere molto utile nel caso di versioni statiche di Wikipedia (come i DVD).

Infine, ecco quanto dichiarato da WMF, per bocca di Jay Walsh e apparso come aggiornamento all’articolo di Wired:

WikiTrust is one of thousands of extensions available within the MediaWiki library. As with other extensions, including flagged revisions, which has been the subject of quite a bit of attention over the past few weeks, extensions are tested and evaluated by members of the volunteer community before being implemented on any of the Foundation’s projects, including Wikipedia. Many of these extensions are part of ongoing research by outside developers and volunteers who want to look at ways of improving the quality of content on Wikipedia and other wikis using MediaWiki. When WikiTrust makes its way through testing and analysis it may be made available as an optional tool that Wikipedia users can activate through their user settings. That
timeframe has still not been set. The Foundation is also looking at introducing a number of visible trust/quality metric tools, which may include tools familiar to many users, including ‘rate this article’
tools on Wikipedia pages. These enhancements would be introduced in the spirit of letting readers and editors better understand which articles, facts, or edits need to be reviewed for quality and accuracy.

Per approfondire:
* A Content-Driven Reputation System for the Wikipedia, le slide
* il blog di WikiTrust

Agosto è un mese crudele con Wikipedia.
Quest’anno ha iniziato Zichichi parlando di internet, il giornale radio RAI mi ha chiesto un commento sull’affidabilità di Wikipedia, l’ANSA ha rilanciato con il controllo delle bio dei viventi citando i tedeschi, Radio 3 Scienza ha cercato di intervistarmi per parlarne (ma io ho avuto problemi con il cellulare), mi ha telefonato Il Giornale per saperne di più ma io ero ormai offline da 10 giorni e li ho dirottati sul mio vice, poi varie ed eventuali che sono uscite fino a ieri (arriva Wikipedia a colori, non ci sono donne che scrivono/usano Wikipedia).

Parte 2 · Parte 3

Se avete letto questa notizia (magari anche altrove), urge qualche chiarimento.

Cosa sono le Flagged Revisions?
Tecnicamente si tratta di una estensione di MediaWiki che permette di flaggare una voce, dando delle informazioni aggiuntive sulla sua qualità.
Sull’edizione tedesca funziona così:
* le info sono di due tipi: una base che assicura che la voce non contiene vandalismi e una avanzata che marca la voce come di qualità
* i due “bollini” sono assegnabili da gruppi di utenti diversi: i revisori per il bollino base sono incaricati dagli amministratori oppure lo ottengono per anzianità (2 mesi dalla data di registrazione e 200 modifiche), quelli per il bollino avanzato dai burocrati.
Finché una revisione non riceve il suo bollino non viene di default mostrata. Cosa significa?
Diciamo che della voce dedicata alla città di Milano sia stata rivista la versione del 25 agosto e che poi il 26 agosto siano state apportate delle modifiche ma che queste non siano state ancora riviste e bollate.
Quando mi collego alla voce Milano, mi viene presentata la versione del 25 agosto e mi viene indicato che esistono delle versioni più recenti. E’ una mia scelta consultare le versioni più recenti non ancora riviste.
Se per caso io decidessi di apportare delle modifiche alla voce di Milano, mi verrebbe proposta in modifica la versione più recente (ossia quella del 26 agosto).

Qui si trovano le edizioni dei vari progetti che la usano al momento e qui un report (un po’ datato) dell’esperienza tedesca.

Cosa succede sull’edizione inglese?
Il 25 agosto la comunità ha deciso di testare per due mesi quel che chiama “Flagged protection and patrolled revisions” ed è in attesa che l’estensione venga installata.
Attualmente su Wikipedia sono disponibili due tipi di protezione delle pagine: semiprotezione e protezione completa.
La semiprotezione prevede che tutti eccettuati gli anonimi e i niubbi possano scrivere sulla pagina, la protezione completa invece prevede che solo gli amministratori possano modificarla.
La flagged protection è un nuovo tipo di protezione che prevede che anche gli anonimi e i niubbi possano scrivere sulla pagina, ma le loro modifiche non vengano visualizzate di default finché non vengono approvate esplicitamente.
E le patrolled revision?
Ogni voce ha un flag (simile a questo, già in uso) che può essere abilitato per monitorarlo meglio, in particolare verrà testato per alcune BLP (biografie delle persone viventi). I revisori possono indicare una revisione come flaggata, il che implica semplicemente che l’utente è avvisato che quella revisione non contiene vandalismi e soddisfa alcuni requisiti minimi. In ogni caso questo processo non modifica la versione delle voci che viene mostrata di default (rimane sempre l’ultima).

Quindi Wikipedia diventa meno libera, meno aperta a tutti e nasce (“finalmente!” penserà qualcuno) una redazione? No, no, no. Chi poteva scrivere prima continua a poterlo fare adesso, semplicemente sarà un pochino più difficile poter vedere le ultime versioni subito, sulle edizioni che adottano le Flagged Revisions.

Per approfondire:
* A quick update on Flagged Revisions
* Elenco delle edizioni dei vari progetti che adottano le Flagged Revisions
* il report (dicembre 2008) dell’esperienza tedesca
* Did Wikipedia Murder Ted Kennedy?

@update: due interessanti articoli anche sul Wikipedia Signpost di questa settimana:
* Misleading media storm over flagged revisions
* An extended look at how we got to flagged protection and patrolled revisions

Giusto ieri sono finiti i campionati del mondo di atletica leggera. Se escludiamo degli incomprensibili stacchi fatti dalla Rai durante fasi clou delle gare (tipo una pubblicità del digitale terrestre proprio mentre faceva il suo penultimo lancio il campione olimpionico in carica di lancio del peso) devo dire che è stata una visione piacevole. In particolare guardarle su satellite invece che su Rai 2-3 ha aiutato a non perdersi troppi pezzi. Trovo ancora incomprensibile la scelta di affidare gli streaming video a Silverlight (che pone non pochi problemi a chiunque non abbia sul computer un sistema operativo targato Microsfot) e gli steaming audio a RealPlayer (che pone problemi a chiunque indipendentemente dal sistema operativo) ma sospetto che non si possa chiedere a quelli della Rai di capire anche qualcosa di tecnologia.

Comunque sia vorrei far notare la posizione dell’Italia nel medagliere. Notato? Ecco, sì, proprio così. Non compare nemmeno di striscio. Tralasciamo le superpotenze sportive tipo Stati Uniti e Russia. Escludiamo dal computo anche Giamaica e Kenia che praticamente possiedono gran parte delle gare di corsa e troviamo che ai primi posti si trovano la Polonia (che porta a casa anche un record del mondo nel martello femminile), la Germania, l’Etiopia, il Regno Unito, l’Australia ed il Bahrain (alzi la mano chi è in grado di dirmi dove diamine si trova il Bahrain senza consultare wikipedia) tutti con 2 medaglie d’oro. Dei nostri vicini la Spagna porta a casa una medaglia d’oro ed una di broinzo, la Francia un argento e due bronzi, Slovenia e Croazia entrambi un oro, il Portogallo un argento e così via.

Ora, io non credo che la colpa sia degli atleti. Tranne rarissime eccezioni quei poveretti vestiti di Blu Savoia hanno dato il massimo; i commentatori potranno anche fare la faccia triste quando gli italiani arrivavano in sesta o settima posizione ma se un atleta arriva ai mondiali dichiarando che punta ad arrivare in finale quando poi ci arriva il suo l’ha fatto ed è difficile chiedergli di più. Dichiarare, come hanno fatto a più riprese, che la nostra staffetta 4x100m maschile avrebbe battuto Trinidad e Tobago e che se la sarebbe battuta con la Giamaica vuole banalmente dire non rendersi conto della realtà dei fatti.

Non è che magari a qualcuno potrebbe venire in mente di fare una riflessione seria su come viene trattato lo sport in questo paese? Non è che magari qualcuno potrebbe iniziare a riflettere che in Italia a furia di spingere mediaticamente solo su calcio, formula1 e ciclismo stiamo ammazzando tutti gli altri sport?

  • More
  • Commenti disabilitati su Campionati del Mondo di Atletica Leggera 2009

Salvaschermi by

14 Ago
2009

Un tempo (neanche troppo tempo fa) monitor e televisori erano a tubo catodico. C’era un catodo che sparava elettroni, un campo magnetico che li deviava ed uno schermo di fosfori che si illuminava quando uno degli elettroni lo colpiva. Calibrando con cura il campo magnetico era possibile far andare a sbattere gli elettroni nel posto che più ci piaceva illuminando questo quell’altro punto e, siccome il processo era molto veloce, si potevano disegnare intere figure e farle muovere. Insomma, erano televisori.

Un problema che si presentava con i monitor è che capitava di lasciarli lì abbandonati per ore, accesi ma inoperativi, con sempre la stessa schermata. I fosfori non è che gradissero troppo e, se uno esagerava, rischiava che l’immagine si “stampasse” sullo schermo. Per ovviare a questo problema vennero inventati i salvaschermo: piccoli programmini che, dopo che il computer era stato lasciato inattivo per un po’ di tempo, iniziavano a far muovere immagini più o meno casuali sullo schermo. In questo modo si evitava che venissero usati sempre i soliti fosfori e nessuna immagine rimaneva permanentemente impressa sullo schermo.

Oggi invece ci sono i monitor LCD. Certo, i tubi catodici non sono scomparsi ma sono ormai dei residuati bellici; non li produce più nessuno e quindi sono destinati a sparire (per la cronaca, il mio televisore è ancora a tubo catodico e non ho intenzione di cambiarlo a breve termine). I monitor a cristalli liquidi funzionano in un modo del tutto diverso: dietro c’è una lampada che illumina di bianco tutto lo schermo e davanti una griglia di cellettine (piene, giustappunto, di cristallo liquido) che possono bloccare o meno la luce della lampada. Questo porta con se due conseguenze importanti: primo per avere uno schermo acceso ma nero si consuma più elettricità che ad avere uno schermo acceso ma bianco (che è la ragione per cui neroogle e compagnia cantando sono delle idiozie), secondo che non c’è alcun rischio che l’immagine resti “stampata” sullo schermo.  Tuttavia i salvaschermo sono ormai diventati un’abitudine ed è difficile trovare un computer che non ne abbia uno.

Qualcuno potrebbe chiedersi che male ci sia. Dopo tutto i salvaschermo sono carini (oddio, mica tutti…) e non fanno alcun male. Ecco il problema è che un salvaschermo costringe i transistor che controllano le celle di cristallo liquido del vostro monitor ad accendersi e spengersi in continuazione. Siccome tutte queste componenti elettroniche hanno una vita media finita (ovvero sono garantite per funzionare un tot di ore e poi si rompono) farle lavorare a vuoto non è una bella idea.

Il mio consiglio personale è di impostare lo spengimento del monitor dopo un certo tempo di inattività ma se proprio non volete (in effetti i monitor ci mettono qualche secondo a riaccendersi) almeno usate una schermata fissa o poco mobile per salvaguardare il vostro schermo.

Alcuni aggiornamenti sono disponibili qui

Mezz’ora fa mi hanno intervistata su Ecoradio. Siccome mi ero preparata ampiamente (visto che tra contatto iniziale, conferma, di cosa parliamo?, ecc. mi hanno chiamato 4 volte) e alla fine ho parlato 2 minuti scarsi, riporto qui lo stato delle cose (caso mai a qualcuno torni utile). Le parti interessanti (il cosa bolle in pentola) verranno riprese prima o poi in futuro.

L’edizione in italiano di Wikipedia (it.wiki per gli amici) conta al momento:
* poco meno di 600.000 voci
* circa 413.000 utenti registrati (numero poco indicativo, non comprende gli anonimi, ossia in non registrati)
* più di 7500 utenti attivi nell’ultimo mese
* 96 amministratori
Per quanto riguarda tutte le edizioni di Wikipedia (i dati sono complessivi, ossia ottenuti sommando i dati relativi a tutte le edizioni):
* sono 267, tutte in lingue diverse (chiedete però all’ISO cos’è una lingua 😉)
* più di 13 milioni e mezzo di voci
* più di 18 milioni e mezzo di utenti
* circa 300.000 utenti attivi nell’ultimo mese
* circa 5000 amministratori

Oltre a Wikipedia, Wikimedia ha altri 9 progetti che si occupano di ambiti differenti del sapere: Wikizionario, Wikibooks, Wikisource, Wikiquote, Wikispecie, Wikinotizie, Commons, Wikiversità e Meta.

Cosa bolle in pentola? Ci sono due progetti globali particolarmente interessanti:
* quello che si occupa dell’usabilità, che sta studiando Wikipedia per renderla più usabile (attualmente è in fase di test una versione beta della nuova interfaccia.. io l’ho attivata ieri e non sono troppo convinta, ma l’abitudine si sa è dura a morire)
* quello che si occupa della pianificazione strategica, che è a caccia di input dalla comunità per disegnare il nostro futuro
Infine i prossimi appuntamenti da non mancare dal vivo:
* dal 26 al 28 agosto in Argentina, a Buenos Aires, si tiene Wikimania 2009, la convention internazionale del mondo Wikimedia
* il 19 settembre a Roma presso la Sapienza si tiene l’assemblea annuale di Wikimedia Italia
Entrambi gli eventi sono aperti a tutti 🙂

..che non vuol dire che gli amicici di Singloids spammano, eh, ma al contrario: io spammo annunciando al mondo che ha aperto l’emporio di Singloids!

Poiché nella pagina apposita i fetenti (ohi? mi leggete? ho detto *fetenti*, sì) hanno chiuso i commenti, scrivo qui quel che avrei voluto dire là:
1. io voglio il gatto griffato Singloids! (ho due gatte, che faccio le impacchetto e ve le mando?)
2. a chi tiro dei biscotti per avere la maglietta dell’iCoso? eddai!
3. a quando il libercolo con tutte le strip su Lulu e affini?
4. sarebbe bello poter vedere un po’ più grandi anche le immagini che non sono strip e che compaiono sulle magliette.. quando arriva la sezione “wallpaper”?

(ok, la smetto..)

Caro URP ti scrivo by

11 Ago
2009

Un po’ di tempo fa avevo raccontato l’emozione (sic!) della mia tassa sui rifiuti. Qualche minuto fa sia io sia il sig. N abbiamo provato a pagarla (lui da BancoPoste e io da IWbank) entrambi con scarsi risultati.
A me compare un bel messaggio d’errore che dice: “Attenzione! L’intestatario del C/C Postale non accetta pagamenti on-line.”

Demoralizzata dalla scarsa informatizzazione di questo paese (che ha, tra l’altro, uno dei siti più brutti della storia) ed essendo fuori orario per chiamare l’esimia dottoressa responsabile del procedimento e del tributo, ho ben pensato di scrivere all’URP (e mi viene da sorridere: l’URP sta nella palazzina adiacente alla nostra.. se non fosse chiuso potrei scendere armata di pomodori!).

Gentili signori,
anche quest’anno al momento del pagamento della TARSU la mia banca (e il sito delle poste) mi confermano, con mio sommo rammarico, che non posso pagare il bollettino online perché l’intestatario del C/C Postale non accetta pagamenti on-line.
Poiché non credo di essere l’unica che effettua il 90% dei pagamenti tramite l’home banking e servizi affini, vorrei sapere se è previsto nel breve futuro che il comune compia un passo tecnologico tanto piccolo per venire incontro alle esigenze dei cittadini.

Distinti saluti,
Frieda Brioschi

Chissà se il servizio clienti del mio comune è meglio di quello di HP e mi risponde..

Plausibilmente la notizia vi è già arrivata (altrimenti potete leggerla su Repubblica o sul Corriere): il risultato degli ultimi testi dell’Invalsi (Istituto nazionale per la valutazione del sistema educativo di istruzione e di formazione) è che i ragazzi di terza media del mezzogiorno hanno risultati migliori di quelli del centro e addirittura di quelli del nord Italia. La cosa puzza un po’ (dato che cozza con tutti gli altri dati che abbiamo a disposizione) e infatti, andando ad analizzare un po’ meglio i dati, vien fuori che una larga fetta dei test svolti al sud sarebbero copiati. In pratica gli insegnanti avrebbero aiutato gli alunni in modo da far ottenere loro punteggi più alti. Preso atto di questo all’Invalsi hanno fatto un po’ di analisi statistiche (Repubblica si riempie la bocca con termini complicati come Hard Clustering o Fuzzy Logic ma dubito fortemente che il giornalista in questione abbia una vaga idea di cosa sta parlando) per correggere le varie furberie et voilà la classifica si ribalta rimettendo gli studenti del nord al primo posto.

Ora io non voglio fare una discussione sulle ragioni politiche/sociali/economiche delle differenze nord/sud nè parlare della responsabilità degli studenti. Non ne avrei le competenze (se volete però potete leggervi il lunghissimo rapporto dell’Invalsi o la discussione su nFA). Vorrei invece spendere due parole sull’uso delle metodologie statistiche che mi pare essere passata un po’ in secondo piano ma che a me ha fatto accapponare la pelle.

Io il rapporto dell’Invalsi non l’ho letto (troppo lungo) ma da quel che si evince dai giornali la sequenza degli eventi è stata di questo tipo: l’Invalsi ha preparato il test, il test è stato effettuato da un certo numero (rappresentativo) di studenti, l’Invalsi ha analizzato i risultati ed ha visto che le cose andavano decisamente in modo diverso da quello che si sarebbero aspettati. Allora hanno riffato l’analisi utilizzando dei metodi statistici diversi e plausibilmente più raffinati ottenendo un risultato in linea con le previsioni e lo hanno pubblicato.

Dov’è l’errore? L’errore (grosso come una casa) è che NON è lecito nella maniera più assoluta scegliere a posteriori che tipo di analisi si farà sui dati. Queste scelte vanno fatte TUTTE a priori altrimenti il rischio di introdurre, coscienti o meno, un bias è fortissimo. Nel mondo scientifico cambiare la tecnica di analisi per far collimare i dati alle proprie aspettative si chiama frode e quando uno viene beccato a fare una cosa del genere si gioca la reputazione e (nei paesi seri, non in Italia) anche il posto di lavoro.

Allora cosa dovevano fare all’Invalsi? Intanto avrebbero dovuto prevedere che un certo numero di copiature e furberie ci sarebbero state (previsione non difficile da fare) e approntare prima delle tecniche di analisi dei dati che permettessero di individuare cose di questo genere e di eliminarle. Lo hanno fatto? Non lo so (magari a leggersi con attenzione il loro rapporto lo si scoprirebbe) ma l’impressione che viene leggendo gli articoli sui giornali è di no. E allora? Cosa fare dei dati una volta che ci è resi conto che sono falsati dalle copiature e che non abbiamo preventivato un metodo per correggere queste cose? Semplice, fare come fanno tutti gli scienziati quando si trovano in una situazione del genere: dichiarare i dati inaffidabili e ripetere l’esperimento (magari stavolta in maniera più intelligente). Se l’esperimento non può essere ripetuto (magari perché troppo costoso) farne a meno e far tesoro dell’esperienza per la prossima volta

Questo è quello che si sarebbe dovuto fare per mantenere il rigore scientifico di questo test. Se non è stato fatto allora l’unica conclusione che posso trarne è che le 180 e passa pagine del rapporto dell’invalsi sono poco più che carta straccia.

top