Arriva Ubuntu 11.10

Come ogni sei mesi è appena stata pubblicata la nuova release di Ubuntu, la 11.10, nome in codice Oneiric Ocelot (Leopardo sognatore). Tra le più grandi novità ci sono l’introduzione, attesa e temuta, del nuovo GNOME 3, che affiancato a Unity, stravolgerà il modo di pensare un desktop. Dalla precedente versione 10.04 rilasciata lo scorso aprile gli sviluppatori Canonical hanno investito molto tempo per perfezionare Unity, considerato da molti utenti ancora instabile e poco pratico. Adesso è più leggero e veloce, permettendo anche ai computer meno potenti un esecuzione fluida e accattivante.
Un’altra importante innovazione riguarda il passaggio alla versione del kernel Linux 3.0, che offre un miglior controllo sull’hardware, migliori prestazioni e compatibilità del precedente.
Insieme a queste sono state introdotte nuove importanti funzioni riguardo la gestione del cloud compiuting, l’introduzione di nuovi programmi (Thunderbird al posto di Evolution …) e altre modifiche. Un buon motivo per provare ad istallare Ubuntu per chi ancora non conoscesse il mondo Linux.
Ubuntu è facile da usare, facile da istallare e facile da configurare. Con questa nuova versione molto aggiornata si lascia alle spalle sia Mac che Windows.

Ulteriori aggiornamenti verranno dati quando avrò maggior tempo per provare questa distribuzione.

Scaricalo da qui, ora!!!!

Steve Jobs, Bill Gates, Linus Tolvards. Scontro tra giganti del software

Bill Gates vs Steve Jobs vs Linus Tolvards

Il miglior sistema operativo

Windows, Mac o GNU/Linux?

Oggi si è diffusa la notizia della morte di Steve Jobs, genio dell’informatica che ha più volte usato il suo grande spirito di iniziativa per offrire alla Apple, società di cui è stato il cofondatore, le idee geniali che hanno caratterizzati i suoi successi. Nonostante io non sia un fanatico del Mac o dell’iPhone, riconosco pienamente la grandezza di quest’uomo. Steve Jobs si è distinto come programmatore, manager e come uomo, una persona speciale, come lo ricorda Barack Obama:

«Steve è stato fra i più grandi innovatori americani – tanto coraggioso da pensare in maniera differente, forte abbastanza da credere di poter cambiare il mondo, e con un talento sufficiente da permetterglielo. Creando una delle compagnie mondiali più di successo dal suo garage, ha esemplificato lo spirito dell’ingegnosità americana. Creando personal computer e collegandoli a internet dalle nostre tasche, non solo ha permesso che la rivoluzione dell’informazione fosse accessibile, ma intuitiva e divertente. E mettendo il suo talento nel raccontar storie, ha portato gioia a milioni di bambini e adulti. Steve era solito dire che viveva ogni giorno come fosse l’ultimo. Proprio per questo, lui ha trasformato le nostre vite, ridefinito intere industrie, e raggiunto uno dei più rari obiettivi nella storia umana: ha cambiato il modo in cui tutti noi vediamo il mondo.»

Ebbene, è ora di confrontare il lavoro fatto da tre campioni dell’informatica, per uno scontro faccia a faccia all’ultimo software tra Windows, Macintosh e GNU/Linux, chi vincerà?

Windows è il sistema operativo attualmente più diffuso in ambiente desktop, istallato su circa l’85-90 % di macchine. Questa diffusione si traduce con l’enorme numero di software disponibile, con particolare risalto per quello che riguarda videogame e software aziendale. Le nuove versioni vengono rilasciate mediamente ogni due / tre anni, con scarsa regolarità.

Mac Os X è il sistema operativo di casa Apple e, a differenza di Windows, il quale può essere istallato su quasi tutti i computer più recenti, richiede un hardware specifico, i cui costi molto elevati spesso scoraggiano i nuovi utenti ad acquistarlo. Il sistema è famoso per essere piacevole da usare, intuitivo, e quasi esente da virus.

GNU/Linux è forse l’unico dei tre che ha davvero bisogno di essere presentato: nasce con la fusione di due progetti distinti, lo GNU (Gnu is Not Unix) sviluppato da Stallman a partire dagli anni ottanta come alternativa di Unix è un set di software libero, non protetti da copyright, e il kernel Linux, cuore del sistema operativo, creato nel 1991 da Linus Tolvards.

Linux è libero e “opensource”. È gratuito e altamente personalizzabile, suddiviso in centinaia di distribuzioni, ognuna delle quali è pensata per uno specifico compito.

Che lo scontro abbia inizio!

La piacevolezza e la produttività di un sistema operativo sono aspetti soggettivi, ma ci si può basare per questo test su alcune considerazioni assolute.

Velocità di accensione:

Questa misura varia da computer a computer e anche molto in base alle configurazioni dei vari sistemi operativi. Nel confronto Mac e Windows risulta leggermente più rapido Mac (testato con un Mac Book Pro e Acer Aspire 5732ZG), le specifiche dei computer sono simili. Il Mac riduce notevolmente i tempi di avvio se usato su un computer Mac Book Air.

I tempi di accensione di Gnu/Linux variano da distribuzione a distribuzione, Ubuntu, la più usata, vanta tempi molto veloci, grazie alle attenzioni degli sviluppatori.

Generalmente al momento dell’istallazione i tre sistemi operativi hanno più o meno gli stessi tempi di accensione, e le differenze sono nell’ordine dei secondi.

Windows rallenta terribilmente i tempi di accensione in seguito a un uso di qualche settimana, dovuta all’istallazione di molti programmi che si aprono all’avvio del S.O., in particolare le trial version che provano fastidiosamente a convincere l’utente a acquistare la licenza completa al momento dell’accensione. Mac e Linux hanno una migliore gestioni di questi programmi (chiamati demoni), vincendo in termini di velocità di accensione.

Ma gli utenti Linux possono ridurre ulteriormente i tempi di accensione usando interfacce grafiche leggere o renderli minori di 10 secondi se si sceglie di avviare il computer senza interfaccia grafica, opzioni impossibili da settare sia per Mac che per Windows.

Vincitore: Gnu/Linux

Secondo classificato. Mac Os X

Ultimo: Windows

Stabilità:

Più un sistema operativo è stabile, minori sono i crash.

Tutti i sistemi operativi hanno fatto passi da giganti negli ultimi anni, a cominciare da Windows, il quale ha investito molte risorse per migliorare questo aspetto del sistema operativo. Le famigerate “schermate blu” sono un ricordo di prima di Windows XP, Windows 7 è molto più stabile di Vista, nuove sorprese forse arriveranno con l’uscita ormai prossima di Windows 8. Mac ha sempre vantato un ottima stabilità, costringendo molto raramente l’utente ad un riavvio forzato.

Anche in questo caso GNU/Linux offre alcune distribuzioni altamente stabili, Debian e Slakware sono sicuro i sistemi operativi più stabili in assoluto. Tuttavia l’eccessiva difficoltà di uso per un utente normale le allontana dalla grande utenza.

Se si è abili con i computer Linux rimane la scelta migliore, ma per la normale utenza il vincitore è…

Vincitore: Mac Os X

Secondo classificato: GNU/Linux

Ultimo:Windows

Gioco:

Chi non ha mai usato un computer per giocare?

In questo campo Windows vanta una disponibilità di videogame sterminata. Grazie agli standard DirectX creati per facilitare lo sviluppo di videogame e la grande diffusione del sistema operativo, tutti i giochi commerciali sono disponibili per questo S.O.

Alcuni di questi giochi sono resi disponibili per Mac Os X e ancora di meno per GNU/Linux. Tuttavia Gnu/Linux può vantare l’alta disponibilità di videogame opensource, spesso di alto livello grazie all’adozione delle librerie grafiche OpenGL. La maggiore facilità di compilare codice sorgente su Linux lo rende un ambiente migliore per eseguire questi giochi che non Windows o Mac. Spesso però questi giochi, per via delle piccole comunità di sviluppatori che hanno alle spalle, non possono vantare un assetto grafico pari a quello degli ultimi giochi commerciali su Windows.

Esistono sia su Mac che su Linux modi per emulare i giochi di Windows, come macchine virtuali. Wine è un progetto con l’obbiettivo di rendere i binari Windows compatibili con i sistemi basati su Unix, compresi Linux e Mac Os.

Vincitore: Windows

Secondo a pari merito: Mac, GNU/Linux

Configurabilità e personalizzazione.

La piacevolezza di usare un sistema operativo dipende da quanto questo sia alla nostra misura.

I livelli di personalizzazione di Microsoft Windows sono scarsi, è possibile cambiare tema alle icone e alle finestre, usare Widget sul desktop e personalizzare la barra delle applicazioni aggiungendo e rimuovendo pulsanti, nascondendola o cambiando posizione. È possibile cambiare sfondo al desktop scegliendo anche sfondi che cambiano a rotazione per rendere più varia l’esperienza di usare il computer. Detto questo si ferma la configurazione, è impossibile eseguire alcune operazioni come rimuovere il browser web predefinito (internet explorer) o modificare profondamente l’interfaccia grafica, decisioni commerciali che pesano molto in termini di prestazioni, sicurezza e personalizzazione.

Macintosh vanta un interfaccia molto accattivante, ma il livello di personalizzazione, per chi volesse cambiarla, è scarsissimo.

GNU/Linux in questo, non ha rivali. È possibile scegliere ogni dettaglio del proprio sistema operativo, a partire dal desktop manager (KDE, GNOME, XFCE …). Ce ne sono per tutti i gusti. Quelli fatti per andare su hardware meno recente, come XFCE o LXDE, che sono semplici, stabili e molto veloci, quelli leggeri con effetti grafici mozzafiato, come Enlightenment, o quelli più pesanti, fatti per hardware più recente, ma che hanno raggiunto un livello di maturità ineguagliabile come KDE o GNOME. Enlightenment è in grado di far usare a tutti gli utenti dotati di hardware datato la bellissima barra delle applicazioni Mac, mantenendo la fluidità del Mac, ma con hardware molto più vecchio. Si possono avere sfondi animati, KDE con il nuovo plasma Desktop consente di usare contemporaneamente più cartelle come desktop offrendo un rapido accesso ai nostri file aumentando la produttività.

Per gli effetti grafici Linux può far uso a differenza di Windows e Mac, di Compiz fusion, che integrato alle OpenGL offre effetti eccezionali, come le finestre tremolanti, che esplodono quando vengono chiuse, che diventano trasparenti quando non sono attive…

Alcune distribuzioni, come Arch Linux, fanno un’istallazione minimale del sistema, in cui istallano solo lo stretto necessario per far partire il computer, lasciando all’utente la scelta totale sul software. Linux consente agli utenti più esperti di agire inoltre, direttamente sui file di configurazione del sistema, rendendo possibili azioni inimmaginabili sia su Windows che su Mac

Vincitore: GNU/Linux

Secondo classificato: Windows

Ultimo: Mac OS X

Sicurezza

La sicurezza è un argomento molto importante oggigiorno, in cui il rischio del grande fratello e di essere controllati è sempre più vicina…

Virus e cavalli di troia lottano per prendere possesso del nostro PC, rubarci i dati, mandarci spam o peggio usarci come computer zombi attraverso i quali commettere azioni criminali.

Windows ha fatto passi enormi in termini di sicurezza introducendo da Windows Vista una separazione tra l’utente normale e l’utente amministratore. Prima qualunque programma poteva fingersi l’utente amministratore e permettere connessioni in entrata (backdoors) o istallare software malevolo danneggiando irrimediabilmente il computer.

Se si ha un computer Windows si deve avere un antivirus, un firewall e un antispywere istallati sulla propria macchina, si deve intervenire magari sostituendo Internet Explorer con un altro Browser web come Firefox o Chrome, si deve aggiornare quotidianamente il sistema per avere un livello di sicurezza soddisfacente, ma mai impenetrabile.

Mac è certamente più sicuro di Windows sia perché quasi tutti i virus sono sviluppati per girare solo su Windows, sia perché Mac vanta una maggiore stabilità rispetto a Microsoft. Tuttavia neanche Mac è esente da malware, specialmente negli ultimi anni il numero di virus è aumentato notevolmente rendendo conveniente istallare anche su Mac un antivirus.

Linux è quasi totalmente esente da virus, l’istallazione di nuovo software è protetta da una password di amministrazione, e il potente sistema di aggiornamento che aggiorna tutto il software istallato sul computer rende quasi impossibile a qualunque programma malevolo di compiere azioni realmente pericolose, sia per la privacy che per l’integrità del sistema. Comunque, per essere più sicuri, si può istallare un antivirus gratuito.

La sicurezza di GNU/Linux l’ha reso la scelta più diffusa in ambiente server, dove raggiunge il 50-80% della diffusione (è difficile fare una stima più precisa).

Vincitore: GNU/Linux

Secondo classificato: Mac Os X

Ultimo: Windows

Conclusioni.

Determinare in assoluto quale sia il miglior sistema operativo è impossibile. Senza contare che abbiamo tralasciato tutta una serie di sistemi operativi meno diffusi come i BSD, Solaris … che meriterebbero una posizione molto più rilevante.

Comunque alcune considerazioni possono essere fatte:

Se siete patiti dei videogame tanto che avete deciso di comprare il nuovo computer sono e unicamente per istallarci tutta la vostra collezione, tanto da consumare tutto il disco fisso immediatamente, beh, c’è poco da fare, la scelta migliore è Windows.

Per tutti gli altri c’è Linux, un sistema che offre tutto quello che offrono Windows e Mac (e anche più), ma è gratuito e libero, e altamente personalizzabile.

Probabilmente per molti utenti ancora legati al software che deve essere usato per lavoro, o qualche gioco disponibile solo si Windows, la migliore scelta è un sistema dual-boot, da cui si può avviare si Linux che Windows (la scelta più comune).

Machintosh è un caso complesso, in pratica non da nulla che non sia dato da Linux, gode però di una diffusione maggiore, e un prezzo molto più alto, principalmente per la grande flessibilità dei suoi prodotti hardware, che sono sempre molto all’avanguardia e godono di un ottima integrazione con il software. Inoltre Machintosh è dotato di un ottimo supporto multimediale, che ha reso la Apple inc vincente nella diffusione di supporti multimediali quale iPod.

Verso l’infinito e oltre, i neutrini superano la velocità della luce!

Intervista esclusiva a Piero Monacelli

OPERA l’esperimento italiano rivela che i neutrini viaggiano più veloci della luce. Adesso bisogna riscrivere la fisica.

L’esperimento OPERA (Oscillation Project with Emulsion-t Racking Apparatus) è frutto della collaborazione tra i laboratori del Gran Sasso (INFN) e il CERN di Ginevra, dove viene prodotto un fascio di neutrini muonici e sparato in direzione dei laboratori del Gran Sasso. Lo scopo principale dell’esperimento era quello di verificare la capacità dei neutrini di “oscillare” cioè di cambiare “tipo”. Al CERN vengono prodotti neutrini μ, al Gran Sasso si sarebbero dovuti identificare nel fascio i Neutrini τ.

Finora l’esperimento ha rivelato un solo evento significativo, all’interno del fascio di neutrini μ è stato identificato un solo neutrino τ. Per questo motivo l’esperimento continua, e continuerà nel futuro a raccogliere dati. La notizia sconvolgente viene però dalla misurazione fatta da OPERA per stabilire approssimativamente la velocità dei neutrini, che essendo dotati di massa molto piccola, sarebbe dovuta essere poco al di sotto della velocità della luce in accordo con la relatività di Einstein.

Invece i dati rilevati sembrerebbero indicare che i neutrini viaggiano più veloci della luce, rivelati dagli strumenti del laboratorio del Gran Sasso con 60 ± 10 nano secondi in anticipo rispetto alla velocità della luce.

I neutrini risultano quindi essere 0.0025 % più veloci della luce, se pur di pochissimo, questo risultato è sufficiente per mandare all’aria la relatività di Einstein.

Intervista a Piero Monacelli (ex direttore dei laboratori del Gran Sasso e membro della collaborazione OPERA )


Qual’è l’obbiettivo principale di OPERA?

L’esperimento OPERA è stato progettato e realizzato per la prima verifica diretta del fenomeno delle oscillazioni dei neutrini. Un fenomeno che era stato previsto già da Montecorvo negli anni 60, famoso fisico italiano scappato clandestinamente in Russia subito dopo la guerra. Questo fenomeno è stato effettivamente verificato sperimentalmente usando i neutrini prodotti dai raggi cosmici dell’atmosfera o i neutrini provenienti dal Sole, ma mancava la conferma diretta. Questo fenomeno presuppone il fatto che i neutrini nel loro viaggio possono cambiare “tipo”, in gergo si chiama sapore.

Esistono tre tipi di neutrini diversi, se disponiamo di un fascio di neutrini di un certo tipo alcuni si trasformano in neutrini di un altro tipo. Era stato notato e misurato il fatto che i neutrini provenienti dal sole sono di meno di quelli che ci si aspetta (neutrini di tipo elettronico), non era mai stata effettuata la misura diretta dell’apparizione dei neutrini di un altro tipo rispetto a quelli del fascio.

Questo è il programma di OPERA, infatti abbiamo già rivelato in un fascio di neutrini muonici che viene prodotto al CERN di Ginevra e arriva al Gran Sasso un evento che può essere dovuto soltanto ad un neutrino diverso, il neutrino di tipo τ.

Questo dimostra che in questo fascio composto esclusivamente da neutrini μ ad un certo punto compaiono neutrini di un altro sapore, chiaramente di eventi bisognerà rilevarne più di uno. Questo è il fenomeno delle oscillazioni che è il principale programma e lo scopo per cui è stato progettato e realizzato questo esperimento che è attualmente in raccolta dati: in questo momento c’è un fascio che viene prodotto a Ginevra di neutrini che viaggia fino al Gran Sasso per 730 km.

Misurando con estrema precisione l’istante di partenza e l’istante di arrivo di questo fascio dei neutrini, che viaggia a fiotti (non è un fascio continuo), e conoscendo la distanza percorsa si può fare una misura della velocità dei neutrini.

Perché è importante determinare la velocità dei neutrini?

I neutrini sono dotati di massa piccolissima, un tempo si pensava avessero massa nulla, ma il fenomeno delle oscillazioni ha evidenziato il fatto che la massa dei neutrini non può essere nulla, ma è comunque molto piccola. All’energia di questo fascio, secondo la teoria della relatività di Einstein, la loro velocità dovrebbe arrivare a essere esattamente quella della luce, o tuttalpiù leggermente inferiore. Questa misura doveva essere una ulteriore verifica di una teoria ormai universalmente accettata, non ci si aspettava una sorpresa.

Invece la sorpresa c’è stata. Secondo questa misura, che è stata accuratamente programmata e analizzata, i neutrini arriverebbero 50, anzi 60 nanosecondi prima di quello che ci si aspetterebbe dalla luce.

Sono state già effettuate misurazioni del genere in passato?

Si, un esperimento analogo a quello di OPERA è in funzione attualmente negli Stati Uniti, al Fermi Lab. (un grosso laboratorio di fisica delle particelle a Cicago intestato a Fermi, che lavorò lì). Qui è stato fatto un fascio analogo a quello del CERN, ma a energia più bassa, casualmente alla stessa distanza circa (730 km, entro poche centinaia di metri) c’è un rivelatore sotterraneo per misurare il fenomeno delle oscillazioni. Anche loro qualche anno fa hanno pubblicato una misura, però con una precisione molto minore che non quella di OPERA, e all’interno degli errori di misura (ogni misura è affetta da una certa precisione), questa misura era compatibile con le teorie di Einstein.

La misura di OPERA, se si conferma che tutto è stato valutato in maniera corretta, dimostrerebbe che la velocità dei neutrini non sarebbe compatibile con la velocità della luce, ma leggermente superiore, anche se di non molto, di un fattore 1 o 2 su 100.000. Ma questo basterebbe per contraddire la teoria della relatività.

Quali orizzonti potrebbe aprire questa scoperta, se venisse confermata?

Questa scoperta apre una finestra in un mondo nuovo, se non è valida la teoria di Einstein bisogna trovare delle teorie che spieghino come mai i neutrini possono superare la velocità della luce.

Potrebbe aprirsi una nuova visione più approfondita, più dettagliata e più avanzata delle leggi che governano la natura e l’universo.

C’è la possibilità che questo anticipo dei neutrini sulla velocità della luce sia frutto di un errore sistematico degli strumenti di misurazione?

Ogni misura deve essere accompagnata da un attento studio degli eventuali errori, sia di tipo statistico che di tipo sistematico che possono contribuire a falsare la misura.

Non si tratta comunque di sbagli, in fisica un errore non è uno sbaglio. Ogni misura fisica deve essere accompagnata da un errore (numero, una grandezza misurata quantitativamente). Questo errore dipende in gran parte dalla precisione, accuratezza e sensibilità degli strumenti che vengono usati.

In più possono verificarsi eventuali errori sistematici dovuti alla non conoscenza di alcuni parti dell’apparato sperimentale.

Tutti questi errori sono stati attentamente valutati, però è chiaro che in fisica quando c’è un risultato completamente nuovo rispetto alle aspettative è sempre bene che questo risultato venga confermato in maniera indipendente da altri esperimenti, o che lo stesso esperimento ripeta la misura per vedere se non è stato fatto qualche errore o sottovalutato qualche effetto. È necessario a questo punto rifare la misura da parte dello stesso esperimento e da parte di nuovi esperimenti per verificarlo in maniera del tutto indipendente da OPERA.

OPERA si trova nei laboratori del Gran Sasso, è gestito da una collaborazione internazionale in cui l’Italia ha una parte dominante.

per ascoltare l’intervista cliccare qui: Intervista a Piero Monacelli

Maturità: la falla matematica che ci regala tre punti

La matematica è senza macula d’errore e certissima per sé.” (Dante Alighieri)

L’esame di maturità. Uno scoglio importante che tutti noi, chi prima chi dopo, dovremo superare. Sono tre prove scritte e una orale. La prima prova è il classico compito di Italiano, si svolge in sei ore e viene valutata in quindicesimi. La seconda prova è il famigerato compito di Matematica, lo spauracchio di sempre, di cui il nostro liceo conserva leggende mitiche quasi mitologiche. Anche questa prova viene valutata in quindicesimi e si svolge in quattro ore. L’ultimo scritto è la terza prova, una serie di quiz a risposta aperta su quattro o cinque materie estratte a sorte la mattina stessa. Si svolge in sole due ore (due e mezza se le materie sono cinque) e anche questa si valuta in quindicesimi. Poi c’è l’orale, la cui valutazione ha il peso più grande di tutto l’esame: il voto viene espresso in trentesimi. I restanti venticinque punti sono accumulati dallo studente come crediti durante gli ultimi tre anni di liceo. La somma è 15 +15 + 15 + 30 + 25 = 100. Ovviamente il voto minimo con cui passare l’esame è 60 / 100.

Fin qui è tutto chiarissimo, nessun errore, matematicamente impeccabile.

Ma noi abbiamo a che fare con l’Italia, signori, e dove finirebbe la nostra reputazione pittoresca senza i soliti errori con cui siamo soliti farcire i compiti a casa? E il ministero della pubblica istruzione, in questo, rappresenta pienamente gli italiani.

Per rendere più rognose le prove scritte si è deciso di fissare la sufficienza a 10/15 (6,7/10) anziché 9/15 (6/10), al fine di preparare meglio gli alunni, s’intende. Il voto di 9/15 ad un qualsiasi scritto è considerato insufficiente.

Ora faccio una magia:

Prendo tre insufficienze agli scritti…

9/15 + 9/15 + 9/15 = 27/45

…la sufficienza striminzita all’orale…

18/30

…la sufficienza striminzita per i crediti…

15/25 (6/10 precisi)

… et voilà: 27/45 + 18/30 + 15/25 = 60/100

Pur avendo preso tre insufficienze e non averle recuperate nelle altre prove sono promosso alla maturità. Come è possibile?

Matematicamente non c’è nulla di strano, infatti la media degli scritti di 27/45 corrisponde a 6/10. Chi valuta, però, è abituato a pensare in decimi, e nel valutare uno scritto assegnerà 10/15 ad un compito sufficiente, e non 9/15. Il nove quindicesimi è considerato equivalente ad un cinque, pertanto verrà assegnato solo se il compito risulta essere insufficiente.

Ne segue che lo studente guadagna un punto per ogni scritto. In totale tre punti che il sistema ci regala gratuitamente.

Per curare la falla nel sistema basterebbe alzare la soglia della promozione da 60/100 a 63/100, in questo modo sarebbe compensata la scelta del ministero di alzare la soglia della sufficienza negli scritti con un effettivo riscontro sul voto finale (ci insegnano fin dal primo che per far tornare un equazione bisogna sommare o sottrarre per una stessa quantità da una parte e dall’altra dell’uguale).

9/15 + 9/15 +9/15 + 18/30 + 15/25 = 60/100 (Soglia matematica della sufficienza)

sommo tre da una parte e dall’altra

10/15 + 10/15 + 10/15 +18/30 + 15/25 = 63/100 (Soglia effettiva della sufficienza)

Ecco l’errore: al ministero si sono scordati si aggiungere tre a destra dell’uguale.

Tutti i voti che vanno da 60 a 62 sono effettivamente insufficienze, se pur lievi, perché lo studente per ottenerli deve aver preso almeno un’insufficienza non compensata dalle altre prove.

Se ritenete che tre punti su cento siano una cosa da poco, pensate un po’ a quante centinaia di persone ogni anno sono promosse con 60/100 alla maturità? Un regalo della matematica.

A mascherare la beffa ci si mettono i crediti.

I crediti vengono considerati erroneamente dei punti “bonus” con cui lo studente può risollevarsi da una situazione difficile o tendere a raggiungere il massimo. In realtà i crediti rappresentano la quinta prova fantasma, valutata in venticinquesimi (il massimo di crediti accumulabili). La magia di prima rimane celata da questa quinta prova che tiene al riparo i nostri tre punti dall’intervento del ministero, che ben si è guardato dal guarire questa falla con la riforma Gelmini. Prendiamo in considerazione l’esempio precedente in cui lo studente accumula 45 punti tra scritti e orale. I 15 punti dei crediti che permettono di raggiungere il 60 sono visti come un punteggio esterno al voto d’esame, un bonus che porta l’alunno portandolo alla sufficienza. Sono ben poche le volte in cui chi valuta controlla il credito trasponendolo in decimi. La commissione non si accorge che quindici punti di credito corrispondono ad un 6/10, perché non è lei ad assegnarli. Mancando agli esaminatori la coscienza di una delle cinque valutazioni d’esame è come se mancasse loro la tessera di un puzzle che non possono ricostruire con chiarezza. Non hanno così la completa coscienza del voto di maturità che acquisisce un significato solo se espresso in centesimi e non se consideriamo separate le varie prove.

E si come mi piace stupire con i numeri guardate ora che succede se consideriamo 9/15 una valutazione sufficiente:

Prendo tutte sufficienze alla maturità…

9/15 + 9/15 + 9/15 + 18/30 = 45/75

…ho il minimo dei crediti accumulabili…

12 punti

…et voilà, pur avendo preso tutte sufficienze alla maturità sono bocciato con 57/100. I tre punti che ci regalano servono proprio per questo.

Fanciù(llo), hai capito?!

Cablegate 2010: Il volto nascosto della più grande fuga di notizie nella storia!

“È pericoloso aver ragione quando le autorità costituite hanno torto” (Voltaire).

A partire da 28 novembre 2010 Wikileaks ha iniziato a pubblicare una serie di 251.287 documenti contenti informazioni inviate da circa 300 ambasciate americane sparse per il mondo.

La pubblicazione è iniziata con appena 300 documenti che hanno smosso le acque di tutto il mondo, non per la loro natura scandalistica, ma per il grande imbarazzo a cui hanno sottoposto gli USA. Molti dei documenti sono, infatti, di grado “confidenziale” e non fanno altro che dipingere con occhi imparziali la situazione politica, finanziaria e sociale dei vari paesi del mondo.
Inclusi in questi report effettuati dagli ambasciatori americani vi sono valutazioni sul comportamento pubblico e privato dei vari esponenti politici non sempre propriamente “elogiativi”. Fra loro vi sono il presidente francese Sarkozy, il russo Putin, e l’italiano Berlusconi.

La vera pericolosità di Cablegate, di cui poco si parla, riguarda però la situazione in medio oriente, dove i documenti rivelano le contraddittorie posizioni degli alleati degli Stati Uniti come l’Arabia Saudita, principale fiancheggiatore degli Stati Uniti e, nel contempo, segretamente (a quanto riferiscono le spie americane) principale finanziatrice della rete terroristica di Al Quaida, o dei missili avanzati ottenuti dall’Iran con l’aiuto della Corea del Nord, o di una spedizione illegale di uranio arricchito che ha quasi causato un disastro ecologico nel 2009 fatto passare sotto silenzio, o dei tentativi di corruzione nei confronti della giustizia nigeriana della multinazionale USA Pfizer, che sperimentava il proprio farmaco (trovafloxacina) in modo “non etico”, causa di una epidemia di meningite che sterminò la popolazione nigeriana nel 1996. Gli argomenti trattati vanno dalle “sospette” relazioni italo-russe alle congiure internazionali, per chi volesse approfondire rimando al sito di Wikileaks, dove si possono liberamente scaricare le copie originali e tradotte dei vari documenti pubblicati. L’Italia, purtroppo, non ne esce benissimo: per l’ambasciatore americano gli italiani sono paranoici e “conspiracy-minded”, governati da un leder inefficace, che spende le proprie energie in festini notturni che non gli permettono di riposarsi abbastanza1.

Le reazioni ufficiali di tutti i paesi sono state di condanna nei confronti di Wikileaks, e in particolar modo verso Julian Assange, suo portavoce, che qualcuno, come Tom Flangam, professore di scienze politiche all’università di Calgary, ha suggerito addirittura dovesse essere assassinato, l’Iran ha accusato il governo degli Stati Uniti di aver fatto trapelare di proposito questi documenti per screditarlo, e Isdraele grida, controcorrente, la legittimità dell’azione e la verità delle notizie. Putin ha definito “calunioso” il soprannome assegnatogli nei file di “alpha dog” e ha intimato gli USA di non mettere il naso negli affari che non li riguardano. In totale contrapposizione si pone l’implicita frecciata agli Stati Uniti di Hugo Chàvez, presidente del Venezuela, che ha dichiarato: “Devo congratularmi con la gente di Wikileaks per la loro audacia e il loro coraggio”.

Ma dietro le reazioni ufficiali ci sono quelle, molto più significative, non ufficiali, espresse dai cittadini stessi. Sono nate molti gruppi di discussione per capire se effettivamente l’azione di Wikileaks sia eroica o condannabile: e tu, come la pensi?

1Dal documento VZCZCXR01363, originariamente “Berlusconi frequents late nights and penchant for partying hard mean he does not get sufficient rest”

Analisi I Fuga dal clavicembalo ben temperato di Bach



La prima fuga dalla clavicembalo ben temperato di Bach è in do maggiore e a quattro voci. La composizione si apre presentando il tema con una sola voce, che procede con un’ascendenza per gradi congiunti seguita da due quarte ascendenti separate da una quinta discendente, prima di iniziare la digressione semicrome per gradi congiunti sulla quale fa la sua apparizione la seconda voce riproponendo il tema sul quinto grado e procedendo in moto contrario rispetto alla prima voce.

Dopo esattamente una battuta in mezzo (spazio nel quale viene riproposto il tema) si aggiunge al dialogo una terza voce, che risponde il canto della seconda un’ottava più in basso riproponendo il caratteristico gioco tematico. Ancora una volta vediamo ripetersi lo stesso schema: le tre voci dialogano durante tutta la durata del tema (una battuta e mezza) per poi farsi accompagnare dalla quarta e ultima voce, appartenente al registro più grave, che entra maestosamente sul primo grado un’ottava sotto.

Le voci continuano la loro fuga rincorrendosi per moto contrario: mentre la prima voce (d’ora in avanti il contralto) prepara il nuovo ingresso al tema del soprano spostandosi sulla dominante, il tenore si sposta sul secondo grado, il basso rimane sulla dominante e il soprano sul settimo grado componendo l’accordo del sol maggiore, su cui si posano tutte le voci meno che il basso che fiorisce nella progressione per semicorme discendente del tema fino a cadere sul terzo grado dove interviene in supporto il tenore che cade sul quinto.

Per completare la triade maggiore do manca solo il primo grado che arriva dal soprano in controtempo mentre ripropone ancora una volta il gioiello tematico nel registro acuto.

A questo punto si conclude l’introduzione e la presentazione del tema, esso, infatti, è stato cantato una volta da tutte le voci (in ordine contralto, soprano, tenore e basso) e entriamo in pieno sviluppo.

È interessante osservare come l’unità tematica fondamentale sia composta da una battuta in mezzo, quindi il primo periodo musicale si conclude ad un multiplo esatto: dopo sei battute, suddivisi in due fasi di tre battute l’una: nella prima fase si presentano le voci alte, il contralto e il soprano; nella seconda delle voci basse, il tenore e il basso.

Allo svettare dei soprani con il tema si appressano i tenori, che lo ripetono sul quinto grado dopo appena una semi minima.

L’armonia è dinamica: passiamo dalla triade di La minore a quella di Sol maggiore a quella di Mi bemolle maggiore per tornare in La maggiore e a Sol, il tema del soprano viene allungato di mezza battuta dalla ripetizione un tono sopra della sua ultima parte per poter cadere sul Fa, dove entra controtempo il contralto sul quinto grado.

Ora interviene il basso, seguito, a distanza di una semiminima, dal contralto, che si intreccia elegantemente con il soprano mentre il tenore tace, in attesa di entrare sul terzo grado dopo la modulazione in La minore, mentre il contralto procede con una discendenza cromatica riproposta poi nell’acuto dal soprano per chiudere modulando definitivamente in La minore.

Sulla battuta 13 si fermano il soprano, il tenore e il basso, mentre il contralto si accinge a esporre nuovamente il tema sulla cronica do maggiore. Si mettano il soprano del basso lasciando per una battuta giocare da soli il contralto il tenore, che risponde sulla dominante intervenendo con una semi minima di ritardo.

Rientrano anche il basso la battuta seguente e poi il soprano sul levare dell’ultimo quarto. La tonalità gioca tra le triade di Mi minore, Re maggiore, La minore e Mi maggiore. Il tema viene ripetuto dalle varie voci con intervalli di tempo sempre più stretti, che accrescono, assieme alla modulazione in la minore, la tensione: basti vedere come nel giro di queste prime tre battute della seconda parte il tema sia riproposto ben sei volte, sfociando in un climax nella battuta 17, che inizia con la triade di La minore e culmina sul Re di basso e soprano nella battuta 19.

Da qui lo sviluppo prosegue per altre quattro battute in cui il tema viene cantato una volta da ogni voce, seguito da una brevissima cadenza che ci porta nella tonalità di Do maggiore passando per Fa minore e la triade diminuita sul settimo grado al termine della battuta 21.

La fase finale della fuga inizia battuta 24, dove il basso intona il Do che dura per tutte e quattro le battute finali e contrasta con il grande dinamismo presentato in tutto il resto della composizione, contralto o tenore cantano il tema mentre il soprano fiorisce in un cromatismo discendente prima di iniziare le ultime scale ascendenti all’epilogo.

In quest’ultimo spezzone della fuga abbiamo una modulazione in fa maggiore sol maggiore prima di concludere con l’accordo completo di do maggiore, su cui Bach disegna una corona.

Lorenzo Monacelli

Copyright o pirati?

“Certo, all’autore di un’opera letteraria, di una musica o di un film non piace che qualcuno se la scarichi da internet senza pagare una lira… però dobbiamo entrare nell’ordine di idee che questi nuovi strumenti cambiano anche il modo in cui si è remunerati per questo tipo di attività” (Stefano Rodotà, Garante della privacy)

Chi sono i pirati informatici?

È un pirata informatico chi scarica da internet contenuti protetti da copyright, illegalmente, rischiando di essere sottoposto a multe salatissime (a partire da 152 € fino a 1032 €).

Cosa vuol dire veramente copyright?

Quante volte ci troviamo davanti alle emblematiche parole “Tutti i diritti riservati”? Dietro i cd, nelle prime pagine dei libri, nei DVD, sulle riviste, persino su alcune pagine web.

Copyright è un patto stretto tra i cittadini e l’autore di un’opera; i cittadini alienano i diritti di vendere, modificare e sviluppare l’opera per un determinato periodo di tempo (in origine meno di 30 anni), durante il quale l’autore può trarre un vantaggio economico che gli consenta di produrre nuove opere (come potrebbe un autore vendere la propria creazione quando ne sono disponibili copie gratuite online?)

La pirateria informatica lotta contro i diritti d’autore. Perché?

Quando le aziende si sostituiscono agli autori, cambiano gli interessi. Copyright non deve più garantire i diritti ad un autore, ma ad una azienda, che ha come interesse arricchirsi, alle spalle di tutto e tutti.

Nato per promuovere il progresso, copyright si trasforma…

Adesso, infatti, perché un opera possa diventare patrimonio libero dell’umanità, accessibile, copiabile e modificabile da tutti, occorre aspettare “soltanto” 120 anni dalla sua pubblicazione. Non basta una vita intera, i diritti d’autore durano più di un secolo.

Volete sapere come si è arrivati fino a 120 anni, partendo da meno di 30? Avreste ragione…

… Siamo nel 1998, alla vigilia del 70 compleanno di Topolino, quando Mickey Mouse si apprestava a diventare patrimonio libero dell’umanità (Chiunque avrebbe potuto pubblicare una propria pellicola con Topolino come protagonista senza pagare nulla alla Walt Disney). Ecco promossa di tutta fretta la “Sonny Bono Copyright Term Extension Act” (Nota anche come “Mickey Mouse Copyright Extension Act”), una legge che dilata la durata dei diritti di autore dai 70 ai 90 anni.

Ma neanche questo obbiettivo è riuscito a saziare la sete d’oro delle grandi case cinematografiche Hollywoodiane, che hanno provveduto ad esercitare la loro influenza sul parlamento statunitense per estendere la durata del copyright fino a 120 anni.

La conseguenza?

La canzone “Happy birthday to you”, pubblicata nel 1935, ancora oggi frutta all’azienda Warner/Chappell Music, detentrice dei diritti di autore fino al 2030, circa 2.000.000 di dollari annui. L’ultima delle sorelle Hill, autrici della celebre canzoncina, è morta nel 1946.

Chi è il criminale: il pirata che scarica illegalmente il semplice motivetto per le feste di compleanno, o l’azienda che sottrae, senza offrire alcun servizio, 2.000.000 di dollari annui ai cittadini?

Le lotte dei pirati vanno avanti da moltissimo tempo, capitanate dal celebre hacker Richard Mattew Stallman, programmatore e fondatore della Free Software Foundation e del GNU System, la base del sistema operativo GNU/Linux (Il sistema operativo gratuito, più veloce e più sicuro).

Programmatore dal 1960 nel Massachusetts institute of Technology, Stallman ha dedicato la vita a lottare contro i diritti d’autore, specialmente in campo informatico, e ha inventato l’etica del software libero e open source.

Copyleft, o permesso d’autore, è la risposta dei pirati a copyright. Una licenza copyleft, come Creative Commons (http://creativecommons.org), permette a qualunque utente di sfruttare, regalare, modificare, o curiosare nel codice sorgente dell’opera. E spesso queste opere gratuite e libere, proprio perché sviluppate da moltissimi utenti contemporaneamente, superano di qualità le “opere” commerciali. Un esempio?

Linux, meno conosciuto, ma sicuramente migliore sotto tutti i punti di vista di Windows, ha subito uno sviluppo vertiginoso, tanto che al giorno d’oggi ne esistono più di mille versioni differenti, tutte molto valide e utili per i più stravaganti usi.

La lotta dei pirati (chi di voi non ha mai scaricato da internet materiale protetto da copyright?) è destinata a vincere, perché è l’unica rivoluzione che si può compiere seduti su una sedia difronte ad uno schermo.

8 Gennaio, 1986. Un misterioso pirata pubblica sul web il Manifesto hacker. Il mantra dei pirati informatici:

Io sono un hacker: entrate nel mio mondo.

Avete mai guardato cosa c’è dietro gli occhi di un hacker, voi con la vostra mente pretecnologica e la vostra psicologia da due soldi?

Vi siete mai chiesti quali sono le forze che danno forma alla mia vita?

Ora questo mondo è nostro, ed è il mondo degli elettroni e dei circuiti, dominato dalla bellezza delle reti.

Noi esploriamo le frontiere della conoscenza e voi ci chiamate criminali.

Siamo una comunità che esiste a dispetto delle differenze razziali, della nazionalità e delle religioni, e voi continuate a chiamarci criminali. Siete voi quelli che costruiscono bombe atomiche, che dichiarano guerra ad altri Paesi, siete voi che uccidete, imbrogliate, ci mentite e provate a convincerci che lo fate per il nostro bene, ma alla fine i criminali siamo noi.

Si, io sono un criminale, e il mio crimine è la curiosità.

Il mio crimine è quello di giudicare le persone per quello che dicono e pensano, e non per le loro apparenze.

Il mio crimine è quello di essere più intelligente di voi, e questo non me lo perdonerete mai.

Io sono un hacker, e questo è il mio manifesto,

Potete fermarci individualmente, ma non potrete mai fermarci tutti.

”.

Quanto corriamo sul filo della Banda Larga?

Al di là del nome, al centro tutt’oggi di vari dibattiti sul vero significato della parola, il tema “banda larga” ha ormai conquistato tutte le nostre case. Nell’accezione comune significa “connessione ad alta velocità” (Superiore ai 20 Mbit/sec). La diffusione della banda larga è una stima del livello di sviluppo di un paese; consente infatti di aumentare la produttività delle aziende, indispensabile per attività quali teleconferenze, videochiamate, telelavoro, telemedicina, IPTV (Contenuti audiovisivi diffusi attraverso la rete), o all’avvio di attività a distanza.

L’Italia, per favorire lo sviluppo economico, aveva stanziato circa 763 milioni di euro per portare, entro il 2012, la banda larga in tutte le case della penisola. Il progetto ideato dall’allora vice ministro allo sviluppo economico Paolo Romani era troppo bello per essere attuato entro i tempi previsti, viene infatti bloccato nel Novembre del 2009. «Gli 800 milioni per il progetto Romani non ci sono più, la crisi ci spinge a riconsiderare le nostre priorità» afferma il vicepresidente del consiglio Gianni Letta.

Ma quale è adesso la situazione in Italia?

Di tutte le famiglie italiane, secondo una stima condotta dall’Osservatorio Banda Larga di Between, più del 40 % non dispone della connessione veloce, e addirittura il 12 % non dispone neanche dei 2 Mbit/sec, considerati la soglia minima per un paese moderno. Percentuali più alte d’Europa.

In Italia il problema si presenta però diviso per regioni: mentre nei grossi centri abitati come Roma ne abbiamo una grande diffusione, nelle campagne limitrofe di alta velocità e tariffe flat neanche a parlarne. Queste grandi divergenze territoriali prendono il nome di digital divide.

Il fenomeno non coinvolge solo il mezzogiorno: Le regioni più sviluppate sono infatti la Puglia, Lazio, Campania, Lombardia e Marche, e anche in queste regioni vi sono grandi differenze tra grossi centri, come Roma o Milano, e il contado.

Quali sono i guadagni che porta la lotta al digital divide?

Come detto la diffusione della banda larga è un indice di sviluppo economico, l’hanno capito bene paesi come la Finlandia, che da più di un anno offre a tutti i cittadini, indipendentemente dalla loro collocazione geografica, un minimo di 1 Mbit/sec, limite che diventerà addirittura di 100Mbit/sec entro il 2015. Difficile fare un paragone con la disastrata situazione italiana.

In Italia un modello del genere sarebbe improponibile, non per problemi geografici, ma per la totale mancanza di conoscenza del problema. La maggioranza delle famiglie italiane non reputa internet necessario allo sviluppo del paese, e il governo non considera i soldi utilizzati per diffondere l’alta velocità di connessione come investimenti, ma come inutili spese.

Basti pensare che, sempre secondo una stima condotta dall’Osservatorio Banda Larga di Between, per ogni euro investito nella lotta al digital divide ne tornano quattro nelle casse dello stato.

Poi si parla di finanziaria…