gianlucacimini.it Rss http://www.gianlucacimini.it/ Coltiviamo i nostri sogni con coraggio. Avanti, sempre! - Gianluca Cimini it-it Wed, 4 Oct 2017 18:48:00 +0000 Fri, 10 Oct 2014 00:00:00 +0000 http://blogs.law.harvard.edu/tech/rss Vida Feed 2.0 gianlucacimini2016@gmail.com (Gianluca Cimini) gianlucacimini2016@gmail.com (Gianluca Cimini) Mediacontent http://www.gianlucacimini.it/vida/foto/logo.png gianlucacimini.it Rss http://www.gianlucacimini.it/ Chip Neuromorfici: quando il futuro dell’AI passa per le connessioni neurali. http://www.gianlucacimini.it/mc/544/1/chip-neuromorfici-quando-il-futuro-dell-ai-passa-per-le-connessioni-neurali

Simulare il cervello umano per apprendere attraverso l’esperienza e migliorare con il tempo il proprio funzionamento, nome in codice “Loihi” il nuovo chip “neuromorfico” annunciato dalla Intel che promette di aumentare nettamente l’efficienza nei compiti di intelligenza artificiale che coinvolgono il riconoscimento di modelli senza dimenticare l’efficienza energetica che risulterebbe circa 1000 volte maggiore dei normali chip fino ad oggi in uso.

Il futuro dell’AI potrebbe davvero passare attraverso questi particolari ed innovativi chip che, in correlazione con un apposito software, possono imparare dall’ambiente in cui si trovano a operare per raggiungere le soluzioni migliori per arrivare all’obiettivo prefissato. In questo approccio, diverso per obiettivi e strumenti da quello classico dell’intelligenza artificiale, si integrano competenze in neuroscienze, elettronica, fisica e matematica. A differenza di molte simulazioni al computer di reti neurali e di elaborazione del cervello,  il chip neuromorfo è concepito per imitare realisticamente le interazioni tra le sinapsi, che sono gli spazi collegamento tra due neuroni e rendono possibile la comunicazione. Definibili coma la versione elettronica delle reti di neuroni del cervello umano, i  “neuromorphic chips” sono in sviluppo inoltre da più di quaranta anni ma è il prossimo decennio quello che lentamente ne vedrà la diffusione di massa e ne decreterà il successo: si prevede, infatti, che entro il 2022 circa 5 milioni di dispositivi utilizzeranno chip di questo tipo (oltre agli inevitabili smartphone, i chip neuromorfici saranno utilizzati, secondo gli esperti del settore, per sensoristica sofisticata, nel campo dell’Internet of Things, e, sopratutto, per l’image recognition, che rappresenterà più del 60% del mercato totale).

Pioniera di questa nuova tecnologia, dopo anni di ricerche, è stata l’IBM con il suo “TrueNorth” un chip da 5,4 miliardi di transistor con 4096 core, in cui ogni core ha 256 neuroni artificiali (un milione in totale) e ogni neurone artificiale ha 256 sinapsi artificiali. Una piattaforma di “computing cognitivo” era stata presentata nel 2015 anche da Qualcomm con la realizzazione di “Zeroth” capace di riconoscere quasi in tempo reale la scrittura a mano anche quando questa cambia molto, (in versione semplificata già da anni la tecnologia OCR che si basa sul riconoscimenti di caratteri digitali attraverso il confronto con forme già memorizzate nel database fa qualcosa di simile ma non si perfeziona in maniera automatica con il tempo e l’utilizzo). Alla base di questi processori si trova sempre e comunque, almeno fino ad oggi, un database d’informazioni utile ad istruire il sistema su come è fatto il mondo circostante e su quali criteri utilizzare nelle varie ricerche e soluzioni possibili.

Il chip messo in progetto da Intel, grazie a qualcosa come 130.000 neuroni artificiali e 130 milioni di sinapsi artificiali per esempio, può apprendere e poi applicare quanto compreso senza connettersi al cloud, permettendo ai sistemi di adattarsi in tempo reale. Ogni neurone artificiale inoltre è in grado di comunicare con altre migliaia di neuroni ed ogni "core" può essere programmato in modo indipendente dagli altri. Michael Mayberry, direttore amministrativo di Intel Labs, promette che “il chip neuromorfico Loihi avrà un’impatto fortissimo nel campo della robotica e dell’automazione industriale” ed il punto forte di tale tecnologia a mio avviso, rispetto alle altre in sviluppo, è proprio che “Loihi” sia stata progettato per apprendere ed applicare quanto appreso muovendosi solo a livello “locale” e quindi senza alcun bisogno di connettersi al cloud. Una tecnologia quindi in grado di evolversi anche da sola, proprio come il cervello umano, imparando con il tempo a risolvere problemi sempre maggiori.

Solitamente al momento della creazione di un nuovo processore per computer si può contare già praticamente dall’inizio su una serie di strumenti e biblioteche software specializzate che, con il tempo, tendono ad ampliarsi e migliorarsi. Nel caso di questi nuovi processori, proprio a causa della loro natura così innovativa, cambia invece radicalmente anche tutto l’ecosistema che li integra e così i paradigmi di programmazione e gli strumenti informatici sono tutti da re-inventare. Con il tempo l’ecosistema, composto da sistemi innovativi singoli e multi-chip, tenderà ad essere sempre più ricco e completo grazie alla creazione di software specializzati e alla vasta comunità scientifica che si interesserà alla nuova tecnologia, università in primis. È proprio nel punto di intersezione di questi sistemi neurosinaptici innovativi, di questi strumenti software specializzati e di questa comunità scientifica che stanno emergendo quelli che saranno i nuovi orizzonti dell’informatica, lo slogan è uno: imparare dall’ambiente circostante al fine di elaborare soluzioni complesse.

Gianluca Cimini

]]>
Wed, 4 Oct 2017 18:48:00 +0000 http://www.gianlucacimini.it/mc/544/1/chip-neuromorfici-quando-il-futuro-dell-ai-passa-per-le-connessioni-neurali gianlucacimini2016@gmail.com (Gianluca Cimini)
Automobili come gli smartphone, il futuro si basa sugli aggiornamenti software http://www.gianlucacimini.it/mc/543/1/automobili-come-gli-smartphone-il-futuro-si-basa-sugli-aggiornamenti-software

I modelli di business futuri per il mondo automobilistico stanno vertendo verso nuove  forme di utilizzo, vendita, e proprietà. A seguire le ultime notizie in questo campo non mi sorprenderebbe se un giorno l’uso dell’auto come mezzo di locomozione privato sparisse del tutto. Nuove formule di affitto e car-sharing sono in continua crescita. Quello che mi sorprende però non è solo l’idea che un’auto possa smettere di avere un unico proprietario ma, sopratutto, l’idea che tale mezzo di locomozione sia destinato a diventare, un giorno, sempre più simile all’uso che facciamo oggi di una app o di un videogames. In futuro, probabilmente, i mezzi messi in vendita non si differenzieranno moltissimo a livello hardware ma presenteranno prezzi differenti a seconda delle funzioni, a livello software, di cui disporranno. Riprendendo il confronto con il mondo dei videogames, questo succede già oggi: compriamo un gioco, fisico o virtuale, ad un prezzo predefinito che contiene la parte principale della storia ma, il più delle volte, se vogliamo accedere a contenuti premium aggiuntivi dobbiamo sborsare dei pagamenti extra (persino quando tali contenuti sono già inclusi dentro il software che abbiamo acquistato ma risultano inaccessibili volutamente per diverse limitazioni di marketing). E così le auto del futuro, come i videogame di oggi, saranno commercializzate in un unico modello e vendute ad un prezzo diverso a seconda delle funzioni sbloccate di cui disporranno.

Tale particolarità si è fatta presente quando, nei giorni passati, l’uragano Irma si è abbattuto sull’America Centrale e la Tesla, nota casa automobilistica di Elon Musk, ha deciso di sbloccare “solo temporaneamente”, tramite un aggiornamento OTA, la massima capacità delle batterie delle Model X60D e delle Model S60 e 60D per permettere di aumentare l’autonomia delle auto di tutti i residenti della Florida così da consentire loro di raggiungere zone più sicure con una sola ricarica. Il fatto che a livello di marketing, e anche di tecnologia, si possa prendere una tale decisione da sicuramente da pensare. Lo sblocco della capacità delle batterie in questione, limitate a livello software all’80% per contenerne il costo rispetto ai modelli più completi, normalmente sarebbe costato ad un utente, che avesse voluto un autonomia maggiore della sua auto, circa 3000 dollari. Come quando scarichiamo un’app gratuita sul nostro smartphone e ci vengono poi richiesti soldi aggiuntivi per utilizzare tutte le varie funzionalità o per eliminare la fastidiosa pubblicità che compare ogni tanto. Il modello di vendita, così come è cambiato per videogames, app e smartphone cambierà quindi probabilmente anche nel campo automobilistico. Non pagheremo quindi più l'automobile in sé, né gli eventuali optional, ma acquisteremo invece progressivamente il diritto di sfruttarne le capacità, ovviamente a seconda delle nostre esigenze e disponibilità.

Senza la necessità di passare in officina basterà in futuro un semplice click sullo smartphone per aggiornare automaticamente il software del veicolo interessato, ne è già convinta la celebre azienda tedesca Bosch che sta lavorando da mesi ad un sistema di distribuzione degli aggiornamenti software per l’industria automobilistica di tipo “Over The Air” (OTA). Aggiornamenti che sfrutteranno nuove tecnologie di cifratura che li renderanno più sicuri e garantiranno maggiore velocità ed affidabilità al mezzo di trasporto evitando la perdita di tempo, per case costruttrici e rispettivi clienti, di visite programmate in officina. Cambieranno così anche le varie forme di commercializzazione del mezzo di locomozione: ci attenderà forse non un diretto acquisto dell’automobile ma solo una fruizione di un particolare servizio a esso dedicato.

Tramite aggiornamenti software inoltre le auto del futuro espanderanno le proprie funzioni e miglioreranno le proprie prestazioni: basta guardare l’ultimo aggiornamento di sistema di Tesla che porta già una gestione dello sterzo più efficiente, così come funzioni TACC (traffic aware cruise control) che consentono all’auto di controllare accelerazione e frenata nel traffico cittadino, parcheggi in perpendicolare e non solo in parallelo ed illuminazioni dinamiche dello schermo e dei pannelli degli strumenti, tante per citarne alcune. E tutto questo tramite un normalissimo aggiornamento OTA. E gli aggiornamenti del futuro secondo Elon Musk, patron di Tesla, porteranno un giorno le nostre automobili a raggiungere il grado di “guida autonoma di livello 5” ossia quella nella classificazione SAE in cui ogni auto sarà equipaggiata a bordo di ciò che serve per guidare in modo autonomo senza nessun intervento da parte del conducente umano. Anche tale funzione sarà a pagamento? Probabilmente si, con un aggiornamento software non meglio precisato preceduto da un esborso ulteriore di 8.000 dollari verso le casse di Tesla. Il miliardario sudafricano ha spiegato che per arrivare al livello 5 servirà ancora del tempo, ma in base ai test in corso il sistema è già almeno due volte più sicuro rispetto ai guidatori umani. Nel frattempo il software lavorerà in background, raccogliendo dati utili al proprio miglioramento in attesa di essere presentato funzionante al pubblico di mezzo mondo. Più elettronica, più funzioni, più software, sarà questo il futuro dell’industria automobilistica?

Gianluca Cimini

]]>
Mon, 25 Sep 2017 19:49:14 +0000 http://www.gianlucacimini.it/mc/543/1/automobili-come-gli-smartphone-il-futuro-si-basa-sugli-aggiornamenti-software gianlucacimini2016@gmail.com (Gianluca Cimini)
Nuovi media e nuovi pericoli http://www.gianlucacimini.it/mc/542/1/nuovi-media-e-nuovi-pericoli

Fake – news, cyberbullismo, privacy ... il mondo dei media attraversa un momento di grande sviluppo e di grandi pericoli.

Sembra una rivoluzione inarrestabile ed imprevedibile verso nuove modalità di diffusione delle informazioni.

La cosiddetta “post –verità”, basata sulla diffusione di notizie completamente false, le cosiddette “bufale” o “fake news”, spacciate per autentiche ed in grado di influenzare fortemente l’opinione pubblica.

Da fruitore dei social networks cerco di essere sempre attento alle fonti da cui provengono le informazioni.

Siamo in una fase di transizione da un vecchio ad un nuovo modello di comunicazione dove anche i giornalisti giocano un ruolo importante. Essi oggi si trovano a dover discernere con molta attenzione le migliaia di fonti di provenienza delle informazioni, cosi da poter riacquisire un ruolo credibile ed autorevole.

Da più parti viene sollecitata una forma di intervento pubblico per contrastare il mancato controllo da parte dei grandi social networks dove si creano e moltiplicano, con la tipica viralità, le fake news.

Qualcosa sembra muoversi con un controllo più accurato da parte di Facebook per evitare le manipolazioni delle news impedendo la modifica dell’anteprima degli articoli.

Sistemi di intelligenza artificiale sofisticati permettono di creare contenuti audio e video dagli effetti pericolosissimi.

E qui entra in gioco, oltre al controllo sulla veridicità delle fonti di informazioni, la tutela della privacy e dei minori.

Cyberbullismo, pedopornografia, grooming, cyberstalking tutti nuovi termini anglosassoni che rappresentano il nuovo pericolo delle famiglie.

Il Parlamento Europeo ha più volte denunciato i nuovi rischi ed i nuovi tipi di abusi della rete ed ha proposto quindi l’adozione di misure comunitarie tali da garantire un utilizzo sicuro di internet al fine di proteggere “l’integrità fisica, mentale e morale dei cittadini e dei bambini minacciata dall’accesso a contenuti inadeguati”.

L’alfabetizzazione mediatica e l’educazione digitale sembrano essere ormai indispensabili nelle scuole e nelle famiglie.

Troppi genitori non conoscono la seconda vita virtuale dei propri figli….

Vicky Davis, un’insegnante americana esperta di nuove tecnologie, sostiene su Edutopia, un sito USA dedicato all’educazione, che portare Facebook e Twitter a scuola non significa avere una classe di ragazzi e ragazze distratti dai propri smartphone. Perché social network non va confuso con socializzazione, ed esistono almeno dodici modi giusti che i docenti possono adottare per usare in maniera proficua le piattaforme digitali in classe. Il decalogo della Davis stimola i docenti a «ricordare che siamo nel 21° secolo» e che è inutile continuare a predicare che è necessario aiutare i bambini a superare il gap digitale, se poi gli insegnanti non sono i primi ad essere disposti a comunicare online. 

Gianluca Cimini

]]>
Sat, 23 Sep 2017 20:15:05 +0000 http://www.gianlucacimini.it/mc/542/1/nuovi-media-e-nuovi-pericoli gianlucacimini2016@gmail.com (Gianluca Cimini)
Formula E 2018: parte l’assalto di piloti e case automobilistiche all’elettrico http://www.gianlucacimini.it/mc/541/1/formula-e-2018-parte-l-assalto-di-piloti-e-case-automobilistiche-all-elettrico

Tutti la vogliono, tutti vogliono esserci, sale ancora di più la febbre da Formula E. Le ultime gare nordamericane del Campionato Mondiale che si è appena concluso hanno visto un record di spettatori, incassi ed interessi inaspettato. Ed il numero di campioni di Formula 1 che decidono di mettersi alla prova nel campo delle monoposto elettriche diventa sempre maggiore. La carta vincente di questo nuovo settore potrebbe essere proprio la sua particolarità unica, che la differenzia dalla più famosa, almeno fino ad oggi, Formula 1, ossia la mancanza totale di inquinamento grazie a batterie e motori al 100% elettrici e sopratutto la scelta di correre su circuiti cittadini.

A tal riguardo grande è l’attesa, per me e per molti esperti del settore, per il primo GP italiano di Formula E che si svolgerà a primavera 2018 tra le strade dell’EUR a Roma (come avevo già scritto mesi fa in anteprima). Più precisamente il 14 aprile 2018. L’accordo è su tre anni, ma l’idea è quella di portare il Fia Formula E World Championship nella capitale per almeno i prossimi cinque anni. “L’ePrix di Formula E è un evento di questo tipo, tra l’altro sostenibile e innovativo, che attraverso un circuito di 2,8 km e 19 curve è un efficacissimo strumento di promozione internazionale delle nostre attività” ha affermato il Presidente di EUR SPA Roberto Diacetti riguardo alla gara capitolina. Un’iniziativa dall’indotto economico importante, ma anche e soprattutto un volano per la mobilità elettrica in Italia, ancora tutta da esprimere nel suo enorme potenziale. Si parla infatti di un indotto stimato, in città paragonabili alla nostra capitale, dai 40 ai 50 milioni di euro all’anno. Introiti importanti, garantiti anche da almeno 40 mila presenze a livello di pubblico, composto da amanti non solo delle quattro ruote, ma anche e soprattutto dell’innovazione in chiave green.

Alla sua quarta stagione la Formula E presenterà inoltre delle novità sostanziali su regolamento e partecipanti: la potenza massima applicata dalle monoposto nelle gare aumenterà da 170 a 180 kW, mentre il picco per le qualifiche rimarrà invariato a 200 kW. Il Visa Fastet Lap Award potrà essere conquistato d’ora in poi solo da coloro che finiranno nella Top 10. Ed infine sarà eliminata una sessione di prove negli eventi a doppia gara mentre verranno aggiunte due giornate di test, del quale una sarà esclusiva per i rookies.

I prossimi anni, infine, non potranno che attirare ancora di più il pubblico a questo evento. Sponsorizzazioni ed investimenti stanno crescendo a ritmi molto alti: Audi, BMW, Porsche e Mercedes entreranno nella grande competizione e si sfideranno con le altre compagnie automobilistiche già presenti, in primis la francese Renault che ha già conquistato tre volte il titolo costruttori e si è impegnata fin dalla nascita del nuovo settore, nel 2013, per arrivare ai vertici della nuova competizione. La decisione delle compagnie segue lo spostamento dell’industria automobilistica globale verso le auto elettriche, evidente nella scelta di Volvo di abbandonare i motori tradizionali e di produrre solo auto elettriche entro il 2019.

“Ormai tutti i veicoli stanno diventando elettrici e, a breve, tutti guideremo macchine del genere in città. Ad esempio, in Gran Bretagna si è appena deciso che in dieci anni ci saranno in circolazione soltanto auto ibride o elettriche. La Formula E rappresenta dunque un’interessante start-up che si accorda perfettamente con la strategia pianificata da Daimler”, ha aggiunto Toto Wolff, direttore della Mercedes.

Da molte compagnie la Formula E è ancora vista come un terreno di prova per tutte le nuove tecnologie di auto elettriche d’avanguardia, un grande laboratorio a cielo aperto dove sviluppare elementi come batterie e sistemi di gestione dell’energia. La Formula E è in effetti, oltre allo spettacolo che offre, un incubatore di ricerca e sviluppo in molti ambiti: dalla mobilità elettrica alle rinnovabili, dai sistemi di accumulo di energia ai nuovi tipi di gestione “intelligente” delle reti elettriche e delle conurbazioni. Insomma se ancora gli investimenti e le velocità della più famosa Formula 1 non son stati raggiunti tutto il settore è in netta evoluzione e già in poco tempo la qualità e durata delle batterie elettriche sta nettamente migliorando, diventando con il tempo più potenti e meno costose, tanto che gli analisti sostengono che una versione elettrica di una berlina familiare standard potrebbe diventare più economica di quella a motore convenzionale. Anche se la visibilità non è ancora paragonabile a quella di altre gare, garantisce costi più che ragionevoli. La mobilità elettrica è il futuro della mobilità metropolitana e il circuito è una vetrina senza paragoni per i marchi coinvolti.

Gianluca Cimini

]]>
Sun, 17 Sep 2017 10:02:27 +0000 http://www.gianlucacimini.it/mc/541/1/formula-e-2018-parte-l-assalto-di-piloti-e-case-automobilistiche-all-elettrico gianlucacimini2016@gmail.com (Gianluca Cimini)
Economia e cicli storici http://www.gianlucacimini.it/mc/540/1/economia-e-cicli-storici

Rileggendo Smith, Marx, Keynes, Kondratev, noti ed importanti economisti dell’età moderna, possiamo comprendere molti aspetti della situazione economica attuale.

Adam Smith (1723 – 1790), filosofo scozzese, fautore del liberismo, della divisione del lavoro come presupposto dell’aumento di produttività e del meccanismo libero di “domanda – offerta”, l’austriaco Joseph Schumpeter (1883 – 1950),  teorico dell’autodistruzione dell’economia, l’inglese John Keynes (1883 – 1992), sostenitore della politica di aumento della spesa pubblica per combattere la disoccupazione ed infine Nikolaj Kondratev (1892 – 1938).

Nikolay Kondratev per primo individuò l’esistenza, fin dalla prima rivoluzione industriale della fine del ‘700, di cicli economici cinquantennali costituiti da una fase ascendente di circa 25 anni, nella quale le nuove tecnologie stimolano gli investimenti, ed una fase discendente della stessa durata caratterizzata prima da una minicrisi, poi da una depressione nella quale il capitale non viene più investito essendo congelato nel sistema finanziario.

Riorganizzando mentalmente i periodi storici possiamo dire che il capitalismo industriale è stato attraversato da quattro cicli cinquantennali.

Il primo caratterizzò la prima metà dell’800 sotto la spinta della prima rivoluzione industriale ed interessò Inghilterra, gli Stati tedeschi ed in parte la Francia.

Il secondo si realizzò nella seconda metà di quel secolo, grazie allo sviluppo della meccanizzazione, delle ferrovie e delle scoperte tecnologiche.

Il terzo ciclo cinquantennale fu sostenuto dall’ingegneria elettrica, dalla produzione delle fabbriche e dall’industria pesante, registrò due periodi di depressione decennali, dalla fine della prima guerra mondiale alla fine degli anni ’30. Durante il secondo conflitto, si verificò in Europa e Giappone una tragica distruzione di capitali.

Nel quarto ciclo, partito dal Piano Marshall nel 1946 fino al 2006, assistiamo ad un “boom economico” senza precedenti, grazie all’automazione delle fabbriche, allo sfruttamento dell’energia nucleare, all’ingresso del computer nelle attività quotidiane, alla rivoluzione informatica.

Nel 2006, l’espansione si blocca dando vita ad una grande crisi che porterà ad una lunga fase di stagnazione dovuta a diversi fattori: l’automazione che gradualmente ha cancellato molte professioni, squilibri economici profondi, delocalizzazione delle fabbriche, dilagante consumismo, forte debito pubblico non rimborsabile.

Ma come si esce da questa situazione stagnante da oltre 10 anni?

Non rimane che attendere fiduciosi per vedere chi sarà costretto da improvvisi eventi drammatici a dare inizio a nuovi impulsi aprendo così la strada al nuovo cinquantennio. Ogni crisi è un’opportunità!

Gianluca Cimini

]]>
Mon, 4 Sep 2017 16:47:55 +0000 http://www.gianlucacimini.it/mc/540/1/economia-e-cicli-storici gianlucacimini2016@gmail.com (Gianluca Cimini)
Il futuro dei motori è elettrico http://www.gianlucacimini.it/mc/539/1/il-futuro-dei-motori-e-elettrico

Ho colto con piacere la notizia dello sbarco della Formula E nel quartiere Eur a Roma il 14 Aprile 2018.

Sembra che il circuito di quasi tre chilometri si snoderà su via Cristoforo Colombo fino all'altezza del laghetto dell'Eur.

Sarà anche un’occasione per le case automobilistiche di promuovere iniziative sulla mobilità elettrica ed ecosostenibile, ormai sempre più vicina a noi.

Questo tipo di competizione dedicata alle monoposto elettriche si afferma sempre di più ma tra gli appassionati colgo ancora un certo scetticismo.

Forse le prestazioni non sono ancora considerate degne di nota, forse manca il rumore roboante…

Penso sia importante però capire gli elementi che rendono interessanti le gare di Formula E perché ritengo che ci sia sempre meno da invidiare alle corse più note di Formula 1.

Durante le gare di Formula E è facile assistere sorpassi avvincenti soprattutto nei tracciati più larghi e articolati. I piloti della Formula E non si risparmiano e provano a portare a casa il risultato senza esclusione di colpi rendendo la gara estremamente emozionante per lo spettatore.

La Formula E ha sfruttato la silenziosità delle sue vetture per portare le gare in posti apparentemente inaccessibili come nel cuore delle grandi capitali mondiali. Le “sfide” tra le auto si snodano su scenografie e panorami mozzafiato sicuramente meno freddi dei classici circuiti permanenti monocolore.

La Formula E offre il terreno ideale per nuove sperimentazioni e per sviluppare nuove soluzioni tecnologiche utili anche per il mondo delle auto di serie.

Ottima è la partnership con Enel per organizzare eventi totalmente “CO2 neutral” con tecnologie digitali intelligenti che permettono di controllare ogni consumo all’interno del circus  alimentando con energie rinnovabili le monoposto, i box delle scuderie e gli spazi del circuito.

“Last but not least” teniamo presente che assistere ad una gara della Formula E non presenta costi inaccessibili come la Formula 1 e può quindi avvicinare chiunque al magico mondo dell’automobilismo.

Gianluca Cimini

]]>
Thu, 31 Aug 2017 19:54:28 +0000 http://www.gianlucacimini.it/mc/539/1/il-futuro-dei-motori-e-elettrico gianlucacimini2016@gmail.com (Gianluca Cimini)
La pet economy cresce http://www.gianlucacimini.it/mc/538/1/la-pet-economy-cresce

Un articolo su un noto settimanale mi ha aperto un mondo che non conoscevo bene…la “pet economy”!

Il mercato che ruota intorno agli animali domestici vale, solo in Italia, oltre 3,5 miliardi di euro. E sembra che ogni proprietario ne spenda circa 100 euro l’anno per il proprio cucciolo.

Un’amica veterinaria mi ha confermato queste cifre e sembra che il trend sia ancora maggiore…

Siamo pronti infatti a risparmiare su tutto ma per il nostro pet non badiamo a spese. Sarà la crisi dei legami affettivi, dei matrimoni, delle professioni? In un mondo di poche certezze, la gioia che ci regala un animale domestico apre il cuore e le tasche! Il mercato mondiale degli animali domestici ha raggiunto 160 miliardi di euro. Un mondo di beni e servizi mutuati dal mondo umano. Le assicurazioni si adeguano a questo mercato in crescita, nascono scuole e percorsi educativi come per i bambini, alberghi e spiagge dedicate, centri estetici per cani e gatti.

Analizzando i profili socio – demografici dei proprietari si nota che la maggior parte sono single di ogni età, coppie senza figli o con figli già grandi. Ho trovato interessante leggere che il cane o il gatto viene usato come “terminale relazionale” ossia come occasione per uscire tre volte al giorno ed avere relazioni sociali con altri proprietari e scambiare quattro chiacchere al parco.

La percezione dell’animale è vissuta quindi come estensione del proprio sé o di un membro della famiglia. Da non trascurare che la vita media di un animale domestico è raddoppiata rispetto a prima grazie ad una migliore alimentazione, cure e terapie maggiori.

Fra le varie specie di pet, la fanno da padroni i gatti con 70 milioni di esemplari, i cani sono più di 62 milioni.

Ai francesi piacciono i felini, mentre gli inglesi sono più fedeli ai cani. All’Italia spetta il primato degli uccelli ornamentali con 12,9 milioni mentre la Germania ha la più larga fetta di roditori insieme a pesci ed anfibi.

Negli Stati Uniti, secondo l’American Pet Products Association, la spesa annua degli americani in questo settore toccherà i 62,5 milioni di dollari. Dietro a Stati Uniti ed Europa, l’America Latina è oggi il terzo mercato mondiale.

Prontovet24 è una start up nata a Taranto che consente ai proprietari di animali da compagnia di prenotare la visita di un medico veterinario a domicilio in ogni momento della giornata, h24.

Insomma il valore sociale degli animali domestici è inconfutabile e la passione per gli animali e per tutto ciò che li riguarda rappresenta una fonte di ispirazione imprenditoriale sempre più interessante…

Gianluca Cimini

]]>
Mon, 28 Aug 2017 07:42:07 +0000 http://www.gianlucacimini.it/mc/538/1/la-pet-economy-cresce gianlucacimini2016@gmail.com (Gianluca Cimini)
Le mille vite dell’alluminio - di Gianluca Cimini http://www.gianlucacimini.it/mc/537/1/le-mille-vite-dellalluminio---di-gianluca-cimini

Economico, duttilissimo, capace di generare un processo di riciclo senza fine, l’alluminio è uno dei materiali più pomettentii della moderna “circular economy”.

Le qualità dell’alluminio costituiscono la base di molti business in Europa e nel mondo. E’ un metallo che richiede pochi investimenti per la sua lavorazione e, data la sua adattabilità, si presta ad un numero alto di impieghi ma è anche facilissimo da riciclare e garantisce un suo continuo riutilizzo.

L’Italia occupa un posto di rilievo nell’economia che ruota attorno a questo metallo.

Nel mondo risulta terzo paese (assieme alla Germania), dopo Stati Uniti e Giappone. Secondo i dati del CiAL(Consorzio Imballaggi Alluminio), il nostro paese è primo in Europa per quantità di rottami in alluminio avviati a riciclo: oltre 927 mila tonnellate nel solo 2016.

Nello stesso anno, sempre secondo i dati del consorzio, sono state immesse sul mercato italiano circa 66 mila tonnellate di packaging in alluminio. Di queste, circa 50 mila tonnellate sono state riciclate (pari al 73,2% dell’immesso a mercato) mentre le rimanenti, composte per lo più da rifiuti da imballaggi sottili, sono state avviate a recupero energetico.

Materiale leggerissimo ed estremamente malleabile, presente in molte leghe con altri metalli è anche un ottimo conduttore resistente alla corrosione dell’acqua e di molte sostanze chimiche. In natura lo si trova nell’acqua potabile ed in alcuni alimenti come cereali e verdure.

La sua attitudine al riciclo lo presta quindi ad un riuso infinito. 

Non solo fra le mura di casa ma anche i grandi marchi si sono fatti convincere dalle molteplici potenzialità di questo materiale.

Jaguar, il marchio di lusso dell’automobilismo, ha sviluppato “XE”, una berlina in alluminio riciclato realizzata grazie al progetto Realcar.

Tra il 2015 e il 2016, Jaguar ha recuperato più di 50 mila tonnellate di scarti di alluminio (pari a circa 200 mila scocche di “XE”) e le ha reintrodotte nella catena di produzione. In questo modo, la Jaguar ha ridotto il fabbisogno del materiale e ha evitato l’immissione in atmosfera di più di 500 mila tonnellate di CO2.

Apple punta ad un sempre maggiore utilizzo di questo elemento che garantirebbe una notevole diminuzione dell’impatto ambientale dell’industria degli smartphone e dei tablet, drammaticamente sempre più inquinante.

Rispetto alle sue qualità uniche, il successo dell’alluminio dovrebbe farci riflettere soprattutto riguardo ai profitti del riciclo. In Europa ci abitueremo sempre di più di “circular economy”. Come ha detto il commissario per l’ambiente dell’Unione Europea, Karmenu Vella, “se vogliamo essere competitivi dobbiamo trarre il massimo dalle nostre risorse, reimmettendole nel ciclo produttivo invece di collocarle in discarica come rifiuti”. Le norme della “circular economy” andranno quindi ad avere un effetto pratico nella vita dei cittadini europei sempre più preponderante.

Gianluca Cimini

]]>
Tue, 15 Aug 2017 07:42:07 +0000 http://www.gianlucacimini.it/mc/537/1/le-mille-vite-dellalluminio---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Il cliente comanda: l’attention economy http://www.gianlucacimini.it/mc/536/1/il-cliente-comanda-lattention-economy

Immaginate di avere un’idea, un servizio o un prodotto e nessuno, tranne voi, lo conosce.

Quindi il vostro prodotto non esiste sul mercato.

Per essere percepiti bisogna attirare l’attenzione dei destinatari ed attirare l’attenzione è un prerequisito per fare business, per dare forma alla società, per “fare il mercato”.

Le nuove prospettive dell’attention economy ci dicono chiaramente che bisogna lavorare sull’attenzione dei consumatori saturi di notizie ed informazioni.

Se l’informazione non ha limiti di crescita non possiamo dire lo stesso della nostra attenzione che non è una risorsa infinita ed è contesa fra milioni di attori ed interlocutori.

Herbert Simon, Premio Nobel per l’economia, nel 1971 già notò che la disponibilità eccessiva di informazioni genera scarsità di attenzione. L’attenzione pubblica quindi, offerta dai mezzi di comunicazione e dai canali di business, è qualcosa di immateriale, costoso e prezioso.

I nuovi media offrono contenuti gratis per i quali ricevono in cambio attenzione e proventi pubblicitari.

Un consumatore che si abbona ad un servizio gratuito ha la percezione di non pagare, ma di fatto, concede qualcosa di incredibilmente prezioso e dal valore economico notevole: tempo, attenzione e dati sensibili.

La nuova unità di misura quindi è la “quota di attenzione” che rappresenta una concreta possibilità di analisi per il marketing, e che parte dallo studio delle reazioni cognitive ed emozionali dei consumatori e fruitori.

L’eyetracking è uno strumento che misura i punti di attenzione così come altri nuovi stratagemmi misurano l’interesse inconscio dei consumatori.

Se esiste un’economia dell’attenzione, esiste allora anche un’economia della disattenzione quando il rumore informativo di fondo rappresenta una condizione permanente.

Preoccupante è l’effetto dell’economia della disattenzione e responsabile, in gran parte, dell’impoverimento culturale che favorisce la diffusione ed il successo delle “fake news o bufale”: notizie commerciali deviate, non verificate e di cattiva e bassa qualità d’informazione.

Gianluca Cimini

]]>
Sat, 5 Aug 2017 18:46:04 +0000 http://www.gianlucacimini.it/mc/536/1/il-cliente-comanda-lattention-economy gianlucacimini2016@gmail.com (Gianluca Cimini)
Il management della resilienza http://www.gianlucacimini.it/mc/535/1/il-management-della-resilienza

La letteratura e cultura della resilienza si diffonde sempre di più anche da noi e soprattutto in azienda. Ripensare quindi la persona e l’organizzazione in chiave di resilience management.

Il termine “resilienza” è stato preso in prestito dalla metallurgia ed indica la capacità di un metallo di resistere alle forze che vi vengono applicate. E’ l’opposto della fragilità e vulnerabilità. Negli essere umani la resilienza è innata, anche se non tutti sanno come accedervi.

Da un punto di vista “etimologico” deriva dal latino “resalio”, configurabile nel gesto del “risalire sull’imbarcazione capovolta dalla forza del mare”. Una capacità quindi di andare avanti senza arrendersi nonostante le difficoltà.

Una persona dotata di buona resilienza è colui che sa persistere nel perseguire obiettivi sfidanti, è un ottimista  di natura, sa “leggere” gli eventi negativi come momentanei e circoscritti e dinanzi a sconfitte e frustrazioni non perde mai comunque la speranza.

Essere resilienti in un mondo instabile è ciò che ci viene chiesto ogni giorno sempre di più.

In ambito aziendale la resilienza si identifica nella capacità dell’azienda stessa di affrontare il cambiamento in maniera costruttiva.

Per sopravvivere alle incertezze, alle turbolenze e criticità del mercato le aziende debbono essere flessibili. Un’azienda resiliente è capace di reagire positivamente allo stress ambientale, alle situazioni avverse ed inattese aprendosi allo sviluppo di nuove funzionalità con una “vision” che sappia andare oltre il beneficio immediato e con un grande senso del futuro.

Ma la costruzione di una cultura della resilienza all’interno di un’organizzazione inizia dall’alto. L’impegno del top management nel potenziare la resilienza e la reattività di un’impresa dovrebbe essere evidente per tutti i dipendenti.  Per generare organizzazioni resilienti però non basta lavorare su un singolo fattore, per quanto critico. E’ un’azione coordinata che coinvolge persone, struttura, processi e prassi.

Chiedersi sempre: “cosa faremmo se capitasse anche a noi?”

Il problema più evidente però non sempre corrisponde al rischio più grande. Pensare sempre al rischio in funzione sia delle probabilità, sia delle conseguenze. Il rischio è calcolato come la probabilità moltiplicata per le conseguenze, pertanto una conoscenza delle possibili conseguenze è fondamentale per prendere decisioni consapevoli, in tempi brevi, in base al rischio.

La pianificazione della risposta alle crisi è fondamentale per ogni organizzazione e per qualsiasi settore di attività, e rischi ed incertezze sono le pedine da giocare nella partita della sopravvivenza aziendale.  

Qualcuno dice che il bello della vita è alzarsi la mattina con un problema da risolvere…..

Gianluca Cimini

]]>
Sun, 30 Jul 2017 11:27:22 +0000 http://www.gianlucacimini.it/mc/535/1/il-management-della-resilienza gianlucacimini2016@gmail.com (Gianluca Cimini)
Thunderbolt pronto ad evolversi: prestazioni top e maggiore diffusione http://www.gianlucacimini.it/mc/534/1/thunderbolt-pronto-ad-evolversi-prestazioni-top-e-maggiore-diffusione

Anche se il futuro per molti si muove ormai sul Cloud, il collegamento fisico tra dispositivi informatici rimane imprescindibile in molti casi particolari di trasferimento dei dati. Dal tempo dei floppy le cose sono nettamente cambiate, con capacità di storage estremamente moltiplicate nel tempo. Mentre crescevano le dimensioni di documenti e programmi così, allo stesso tempo, la necessità di velocizzare anche il trasferimento di questi file da un dispositivo all’altro si è fatta sempre più importante. E le tecnologie per il trasferimento dei dati si sono affinate nel tempo cercando di convergere poi in standard comuni per una migliore diffusione  e ottimizzazione sia per produttori sia per consumatori finali. La vera trasformazione, a mio avviso, si è avuta con l’avvento dei primi dispositivi che hanno abbracciato il cosiddetto “Universal Serial Bus” che con la sua evoluzione 2.0 riusciva a raggiungere, sulla carta, una velocità di 480 Mbps. Abbastanza per gli standard del tempo, impossibili per quelli odierni. Così l’evoluzione tecnologica ha portato l’avvento della versione successiva ossia la USB 3 (capace di velocità pari a 5 Gbps nella versione 3.0 e di velocità pari a 10 Gbps in quella 3.1) fondamentale per spostare file di grandi dimensioni come per esempio file video HD in pochi secondi da un dispositivo all’altro. Il successo di una tecnologia si basa da sempre sia sulla sua performance sia, soprattutto, sulla sua diffusione. Più prodotti abbracciano la nuova tecnologia e più questa avrà possibilità di affermarsi sul mercato, specialmente se tale tecnologia viene integrata nei prodotti di base, come schede madri o processori, e se il protocollo utilizzato risulta gratuito e libero da costi di licenza. Il 2018 potrebbe essere per questo l’anno della diffusione della tecnologia “Thunderbolt - The USB-C that does it all” sfruttando il motto con cui viene ora pubblicizzata.

« Vediamo Thunderbolt come un successore di USB 3.0. In un certo senso, vorremmo realizzare l'unico cavo di cui avrete bisogno » (Kevin Kahn, Intel senior fellow all'IDF 2011).

Thunderbolt 3 sta rivoluzionando il nostro modo di pensare alla connettività e alle prestazioni. Come per qualsiasi tecnologia innovativa, è normale che ci sia un po’ di confusione su ciò che questo significa per i nostri dispositivi attuali e su come sfruttare al meglio queste nuove possibilità. Sviluppata insieme da Intel ed Apple (e uscita in commercio proprio sui più recenti prodotti di Cupertino) la tecnologia Thunderbolt si prepara così ad una nuova evoluzione. Tale tecnologia arriva, grazie all’implemento al suo interno dello standard 3.1 e del connettore reversibile USB-C, a velocità estreme teoriche di 40 Gbps, due volte la velocità della generazione precedente, quattro volte la larghezza di banda rispetto ad una Thunderbolt 2, presenta così una capacità di trasferimento superiore, oggi, a qualunque altro cavo fisico presente sul mercato. Trasferire un film in super alta definizione 4K richiederebbe ora solo 30 secondi tra due dispositivi aventi lo stesso standard. Meno di 1 minuto per copiare 14 ore di video HD, meno di 1 minuto per copiare 25.000 foto, meno di 1 minuto per copiare 10.000 canzoni.

Come dicevo riguardo alla diffusione dei nuovi standard tecnologici, molto dipenderà  dalle scelte delle grandi aziende di abbracciare questa evoluzione: Intel intende integrare Thunderbolt 3 nei propri microprocessori (fino ad oggi era servito un controller dedicato sulle schede madri) e rendere il protocollo “non esclusivo”, gratuito e “royalty free”. Aprire il protocollo e rimuovere i costi permetterà ad altri produttori di sviluppare controller compatibili con Thunderbolt, abbassando i costi della tecnologia. Fino ad oggi, infatti, un grosso problema di Thunderbolt era stato quello dei costi, anche dei cavi e degli accessori, che in parte ha frenato l’adozione da parte dei consumatori, ma l’integrazione della nuova evoluzione tecnologica direttamente nelle future CPU aiuterà a ridurre il costo complessivo del prodotto finale. E, anche se in questi anni non è riuscita a diventare una tecnologia di massa, la versatilità della Thunderbolt 3 capace di adibire una singola porta a tantissimi utilizzi diversi (dall’alimentazione dei dispositivi, alla connessione di schermi, trasferimento di dati) di fronte alle nuove strategie chiarite da Intel potrebbero davvero far affermare ancora di più questa tecnologia che si vanta del fatto di essere “the USB-C that does it all”. Stavolta magari anche al giusto prezzo.

Gianluca Cimini

]]>
Tue, 11 Jul 2017 19:23:04 +0000 http://www.gianlucacimini.it/mc/534/1/thunderbolt-pronto-ad-evolversi-prestazioni-top-e-maggiore-diffusione gianlucacimini2016@gmail.com (Gianluca Cimini)
Social Media contro violenza e terrorismo grazie all’AI (e non solo) http://www.gianlucacimini.it/mc/533/1/social-media-contro-violenza-e-terrorismo-grazie-all-ai-e-non-solo

Era arrivato con decisione a Dicembre dello scorso anno il monito della Commissione Europea contro i grandi di internet (Facebook, Twitter, YouTube, Microsoft in primis) per non essersi impegnati in tempi ragionevoli a contrastare il fenomeno “dell’odio da tastiera” (più precisamente detto “hate speech”) che sempre più spesso, sempre con più facilità e con più velocità, si alimenta proprio su quei social media creati inizialmente per condividere le proprie vite e al centro adesso del dibattito a causa dei troppi messaggi di incitamento all’odio e al razzismo che nascono, forti anche di un certo anonimato virtuale, tra le righe dei vari profili. Così , per contrastare in maniera più efficace il fenomeno appena descritto, le grandi aziende hanno stipulato un “Codice di condotta” con l’obiettivo di controllare le notifiche ed eventualmente bloccare dopo verifica i relativi post entro 24 ore, ma persino oggi, nonostante l’adesione, l’obiettivo è ancora lontano dal suo raggiungimento. Molto spesso, infatti, proprio sulla rimozione celere dei contenuti valutati negativamente si gioca la battaglia contro l’odio in rete. Prima si agisce e prima si può arginare il problema in un mondo come quello di internet in cui la diffusione delle notizie, anche di quelle false purtroppo, è quasi istantanea e alimentare tale notizie è fin troppo facile, dopotutto basta un “condividi” cliccato senza troppa cognizione di causa.

Se da un lato, però, ci si sta muovendo lentamente contro gli “odiatori da tastiera” al contrario i grandi network si stanno organizzando per contrastare quel fenomeno terroristico che non smette di trovare sempre nuovi adepti. Perché si sa, ormai il terrorismo attuale viaggia soprattutto in Rete. In maniera silenziosa, alcune grandi realtà del Web avrebbero iniziato così a bloccare i contenuti estremisti o che comunque incitino alla violenza e all’odio. Stabilire se un contenuto sia estremista o inciti all’odio, però, non è cosa semplice poiché ci sono molte sfumature, non sempre si tratta infatti di situazioni facili da riconoscere come nei casi di violazione di copyright o di video pedopornografici. Affidarsi solamente alla segnalazione degli utenti, a cui segue un controllo da parte umana, può non bastare ,il futuro della valutazione di certi contenuti è, quindi, nelle mani dell’automazione tecnologica che può risultare più efficace e soprattutto più tempestiva. A quanto pare i grandi colossi Web, come Facebook e Google, starebbero utilizzando una particolare tecnologia, nata inizialmente per rimuovere i contenuti protetti da copyright, adattata al nuovo scopo grazie all’uso dei “codici hash” ossia una sorta di firma digitale unica assegnata dalle Internet company automaticamente a certi video, che consente di rimuoverli velocemente, evitando anche che possano essere ripostati altrove. Tuttavia, la tecnologia in questione funziona solamente, per ora, su contenuti già conosciuti e circolanti in rete, mentre non riesce a bloccare i contenuti totalmente nuovi immessi sul Web.

Per il futuro Facebook ha annunciato di avere allo studio soluzioni tecnologiche innovative che dovrebbero aiutare a contrastare la diffusione di contenuti terroristici attraverso le sue pagine. La chiave sarebbe l’impiego dell’intelligenza artificiale che attraverso algoritmi di apprendimento profondo migliorerà la sua efficacia con il tempo e con l’utilizzo e sarà in grado sia di confrontare immagini (consentendo al sito di tutte le foto o i video pubblicati da varie fonti se dovessero avere una corrispondenza con altri contenuti già eliminati), sia di comprendere i messaggi e di eliminare automaticamente tutti quelli che abbiano in qualche modo a che fare con contenuti terroristici. Il social, dunque, cercherà in modo sempre più efficiente di individuare e chiudere account che mostrino elevati rapporti con altri profili già chiusi per terrorismo o che abbiano condiviso materiali legati ad attività terroristiche.

E così per le grandi aziende Web non è facile riuscire ad arginare il fenomeno specialmente perché lavorano costantemente sul pericoloso filo che da una parte tenta di proteggere gli utenti e dall’altra rischia di minare il diritto di espressione. E così, il giusto peso di valutazione, per quelle pagine web in bilico tra censura e sanzione, rimane un tema alquanto spinoso. La foto di un uomo armato che sventola una bandiera dell'ISIS può essere materiale di propaganda, ma anche di informazione: la differenza la fa il contesto e nessuno meglio di un essere umano può valutare questa componente, per questo la componente umana rimarrà quasi sempre rilevante in questa lotta.

Le direttive di Facebook sulla valutazione dei contenuti dei post per esempio, rese pubbliche grazie ad un articolo del Guardian a Maggio, valutano il contesto sempre come prioritario rispetto al contenuto. Così immagini di morti violente, aborti (se non mostrano persone nude), persone che si infliggono ferite o abusi fisici non sessuali, secondo la direttiva, non vanno rimosse per forza a meno che non siano mostrate in un contesto in cui si fa apologia del contenuto. Se i contenuti sono pubblicati in un contesto celebrativo o sadico sono destinati ad essere rimossi, viceversa, potrebbero essere utilizzati per sensibilizzare le persone su alcuni problemi (come nel famoso caso della bambina vietnamita ustionata dal Napalm). Il tema, che interessa non solo una piccola comunità formata da un gruppo di persone definite, ma un’ampia parte della popolazione mondiale, è attuale e lo sarà sicuramente anche per gli anni a venire poiché il pluralismo del Web rischia di trasformarsi in una grande Babele in cui molte voci rischiano di scontrarsi e coprirsi tra loro senza armonizzarsi e rimanere controllabili e decifrabili. Il tema della libera espressione sul Web è molto complesso e siamo nel momento forse di espansione più grande di questa società virtuale che vive intorno a noi. La convinzione che le tecnologie digitali alimentino solo cambiamenti positivi (come si è pensato ai tempi delle manifestazioni in piazza in Iran, Cina ed Egitto) e siano lo strumento perfetto per la creazione della democrazia corrisponde veramente alla realtà?

Gianluca Cimini

]]>
Tue, 4 Jul 2017 19:20:23 +0000 http://www.gianlucacimini.it/mc/533/1/social-media-contro-violenza-e-terrorismo-grazie-all-ai-e-non-solo gianlucacimini2016@gmail.com (Gianluca Cimini)
SambaCry: quando ad essere preso di mira dagli hacker è il mondo Linux. http://www.gianlucacimini.it/mc/532/1/sambacry-quando-ad-essere-preso-di-mira-dagli-hacker-e-il-mondo-linux

Quella che fino ad oggi sarà ricordata come la più diffusa cyber offensiva mondiale perpetrata verso computer Windows, ossia WannaCry che ha bloccato i pc di mezzo mondo con numeri altissimi di diffusione (pari a più di 100 mila attacchi, 150 paesi colpiti, ospedali britannici mandati in tilt e anche 2 università italiane), si presta ad avere la sua controparte anche nel meno diffuso, e a detta di molti esperti anche più sicuro, mondo di Linux. E così migliaia di potenziali vittime tra i server Linux che utilizzano la piattaforma Samba per la condivisione di file e stampanti in rete locale rischiano di veder trasformati i loro computer in “zombie” pronti a generare una cosiddetta “cripto-valuta” ed arricchire gli hacker che stanno attaccando questa suite di strumenti utilizzati per la condivisione tra reti miste windows e linux, implementando il protocollo di rete SMB. Tale bug implementato in Samba, simile a quello che ha scatenato WannaCry, permetterebbe ad un hacker sufficientemente preparato di prendere il controllo della macchina. Tale vulnerabilità, affinché un attaccante possa caricare un codice arbitrario da eseguire in remoto, richiede sia che il computer su cui è eseguito il servizio Samba abbia attiva la condivisione di file e/o stampanti sulla porta 445, sia che questa sia raggiungibile da Internet, ed infine che chiunque abbia permessi di scrittura su tali condivisioni li abbia in percorsi predefiniti o facilmente indovinabili. La vulnerabilità era già nota da tempo, così come la possibilità che venisse sfruttata per eseguire azioni malevoli, ma solo a distanza di mesi è stato individuato il primo Trojan in grado di violare quei sistemi Linux che utilizzano la piattaforma open source Samba. Rispetto all’attacco WannaCry la buona notizia è che gli hacker stavolta non stanno prendendo in ostaggio i file degli utenti richiedendo loro dei soldi per essere sbloccati (un cosiddetto attacco ransomware). E allora cosa hanno in mente questa volta?

Il malware agisce in maniera estremamente metodica. Per prima cosa verifica la possibilità di accedere in modalità scrittura sul disco, copiando al suo interno un file di testo composto da 8 caratteri casuali. Se il tentativo ha successo, SambaCry cancella il file e procede con l’attacco. L’obiettivo della diffusione di SambaCry sembra legato alla cripto-valuta Monero. Nei computer degli sfortunati utenti, infatti , viene installato un software che permette agli hacker di utilizzare la potenza di calcolo dei server Linux per generare questa cripto-valuta simile a Bitcoin che sta diventando molto popolare tra i cyber-criminali. Monero, infatti, ha caratteristiche tecniche che promettono di garantire l’assoluto anonimato nelle transazioni, rendendola una valuta ideale per operazioni illegali. Ma questo potrebbe essere solo l’inizio per i cyber criminali dal momento che gli analisti di Kaspersky (nota società di antivirus che ha lanciato l’allarme sulla nuova minaccia informatica) hanno notato nelle loro analisi che il componente installato nei computer infetti apre effettivamente l’utilizzo a diverse possibilità, sia dall’installazione di ulteriori malware sia dal controllo totale remoto della macchina a totale discrezione e piacimento degli hacker. La consolazione per gli utenti è che, per ora, l’operazione non abbia portato ai cyber criminali grandi guadagni (circa 5.400 dollari caricati nel wallet XMR, sigla delle monete di Monero) e che il numero di server vulnerabili all’attacco non è così elevato: circa 100.000 secondo i ricercatori di Rapid7, e dopo l’annuncio e la pubblicazione degli aggiornamenti che correggono il bug, tale numero dovrebbe essersi drasticamente ridotto. Se possedete o gestite computer che utilizzano Samba il consiglio è di assicurarsi per bene della versione installata sulla propria macchina (sia la 4.6.4, la 4.5.10 che la 4.4.14 contengono la patch che dovrebbe assicurare di essere immuni all’attacco SambaCry).

Noto da questa nuova vicenda, e con una certa nota positiva, che molto spesso le previsioni degli analisti e dei ricercatori di società informatiche che si occupano di cyber attacchi e diffusione di virus ed altri malware, quasi sempre si rivelano veritiere. Non sono però da meno gli hacker che, una volta venuti a conoscenza della vulnerabilità del software, in brevissimo tempo utilizzano quella falla di sicurezza per portar avanti i loro scopi. Aggiornare, quindi, rimane ancora una volta la soluzione migliore per aver la certezza che eventuali bachi del sistema siano stati corretti con le versioni successive. E gira voce tra il mondo Linux che tale vulnerabilità sia presente da circa sette anni anche se fino ad oggi non ha mai fatto così gola agli hacker.

Gianluca Cimini

]]>
Wed, 28 Jun 2017 19:31:34 +0000 http://www.gianlucacimini.it/mc/532/1/sambacry-quando-ad-essere-preso-di-mira-dagli-hacker-e-il-mondo-linux gianlucacimini2016@gmail.com (Gianluca Cimini)
Stampa beffarda: la NSA può risalire a chi sei grazie alla tua stampante http://www.gianlucacimini.it/mc/531/1/stampa-beffarda-la-nsa-puo-risalire-a-chi-sei-grazie-alla-tua-stampante

Li chiamano “tracking point” e sono i marcatori che molte stampanti a colori imprimono sulle stampe effettuate registrando in questo modo tutte le informazioni che permettono di risalire non solamente al momento esatto in cui il documento è stato stampato, ma anche al numero della stampante usata. Niente di preoccupante se non si ha qualcosa da nascondere, ma abbastanza rilevante se i documenti stampanti sono rapporti Top Secret dell’Agenzia della Sicurezza Nazionale Americana (NSA). Il sistema di “marchiature” delle stampe è conosciuto da diversi anni, nonché avversato da molte associazioni americane che si battono per la libertà di espressione, ed è stato utilizzato in questo caso per risalire ad un documento segreto in cui si accusava la Russia di Vladimir Putin per presunte “interferenze” nel corso delle ultime elezioni presidenziali statunitensi. Tale documento, dopo essere stato trafugato, o venduto, è stato fornito, per ancora non chiari motivi, al famoso sito di informazioni “The Intercept” (diretto da Glenn Greenwald, un giornalista specializzato in inchieste di questo tipo e che già lo scorso anno aveva denunciato i sistemi di sorveglianza di massa dell’NSA grazie alla collaborazione di Edward Snowden).

Fin qui tutto il passaggio di informazioni era stato perfetto ma, a questo punto, un errore gravissimo ha portato gli agenti dell’NSA a risalire alla fonte del “leak” attraverso i già citati marcatori di stampa. E così, grazie alla circolazione di una scansione in PDF della stampa originale trafugata da qualche talpa, si è giunti al nome del contatto che fino a qualche mese fa collaborava con la National Security Agency, tale Reality Leigh Winner, che ora si trova in stato di arresto rischiando una condanna a 10 anni di carcere. Da giornalisti così esperti e specializzati nei temi della sorveglianza mi sarei aspettato che fossero capaci di proteggere le loro fonti, ma anche i migliori possono sbagliare. Il tema è molto importante e dibattuto, poiché la serie di attacchi nei confronti dei sistemi di voto elettronici nel corso delle elezioni presidenziali USA del 2016,( ne avevo parlato già mesi fa), aveva acceso i riflettori sui possibili brogli elettorali che poi, con la presunta ingerenza del governo russo di Putin, hanno portato alla vittoria il candidato Donald Trump, e così, una dimenticanza così importante ha portato, nel giro di poche ore dalla pubblicazione della scansione PDF, all’arresto dell’informatrice che aveva fornito quel documento Top Secret proveniente dagli uffici dell’NSA. Ma la certezza che quei file non possano essere stati portati fuori dagli uffici del governo e stampati solo in un secondo momento da un computer qualunque da cosa si evince? Il documento trafugato proviene da una stampante con numero di modello 54, numero di serie 29535218, ed è stato stampato il 9 maggio 2017 alle 6:20. La NSA è risalita così a chi utilizzava la stampante in quel momento, ma come?

La risposta risiede proprio nei famigerati “tracking dot” (o point), una serie di puntini di colore giallo che le stampanti a colori inseriscono in qualsiasi stampa. Praticamente invisibili ad occhio nudo per chi guarda il foglio di carta, ma visibili ai più attenti e specialmente a chi sa dove e come cercarli. E così risalire alla stampante usata attraverso il suo numero di serie e anche all’esatto momento in cui la stampa è stata eseguita, per quanto possa sembrare difficile, non è irrealizzabile. E nel momento in cui quella pagina stampata viene trasformata in una versione digitale attraverso uno scanner gli stessi puntini gialli vengono impressi indelebilmente sul file pronti ad essere analizzati da occhi esperti e non solo. Sul web infatti (per esempio in inglese all’indirizzo: https://w2.eff.org/Privacy/printers/docucolor/) ho trovato una guida molto esaustiva, parte del progetto “Machine Identification Code Technology project”, che spiega come leggere la data, l’ora ed il numero di serie della stampante dai codici di monitoraggio che vengono impressi sulla carta al momento della stampa.

Alcune stampanti imprimono una griglia rettangolare di 15 punti per 8 punti gialli minuscoli su ogni pagina a colori. La stessa griglia viene stampata ripetutamente su tutta la pagina ma le ripetizioni della griglia sono leggermente compensate l’una dall’altra, in modo che ciascuna griglia sia separata dalle altre. La griglia, inoltre, viene stampata parallela ai bordi della pagina. A causa del loro limitato contrasto con lo sfondo, i puntini non sono solitamente visibili all'occhio nudo sotto la luce bianca. Possono essere visibili, però, mediante ingrandimento (utilizzando una lente d'ingrandimento o un microscopio) oppure illuminando la pagina con una luce azzurra anziché una luce bianca. La luce blu pura provoca, infatti, la comparsa dei famosi punti gialli. A questo punto, utilizzando sia l'ingrandimento sia l'illuminazione sotto la luce blu, la maggioranza degli individui, con un buon occhio, sarà in grado di vedere i punti identificativi di cui abbiamo parlato, provare per credere. 

Gianluca Cimini

]]>
Tue, 20 Jun 2017 18:08:01 +0000 http://www.gianlucacimini.it/mc/531/1/stampa-beffarda-la-nsa-puo-risalire-a-chi-sei-grazie-alla-tua-stampante gianlucacimini2016@gmail.com (Gianluca Cimini)
La privacy dei cittadini e degli studenti al centro del lavoro del Garante http://www.gianlucacimini.it/mc/530/1/la-privacy-dei-cittadini-e-degli-studenti-al-centro-del-lavoro-del-garante

Con l’entrata in vigore, a maggio del 2018, del nuovo Regolamento europeo sulla protezione dei dati personali, offline ma soprattutto online, si cercherà di avere un metodo ancora più efficace per rispondere alle tante nuove sfide dettate dagli aggiornati modelli di crescita economica dei paesi dell’unione, nonché dalle esigenze di tutela sempre più avvertite dai cittadini dell’Europa. L’anno che si è concluso ormai da qualche mese ha visto un lavoro continuo ed impegnativo da parte dell’Autorità Garante per la Protezione dei Dati Personali, in un documento presentato qualche giorno fa, è stato fatto così il punto sia dei risultati ottenuti fino ad oggi, sia degli obiettivi futuri e di come questi verrano perseguiti. Dal cyberbullismo, alla lotta al terrorismo, alla crescita del crimine informatico, all’espansione dei Big Data e ai rischi della sorveglianza di massa, passando infine per le nuove tecnologie del mondo del lavoro e la richiesta di maggiore trasparenza nelle Pubbliche Amministrazioni, gli ambiti in cui il Garante si è trovato ad intervenire sono tanti e tutti di rilevanza nazionale, ma non solo. Per farci un’idea dell’operato basta guardare i numeri del 2016 ossia: 561 provvedimenti collegiali, il riscontro ad oltre 4.600 quesiti, reclami e segnalazioni (in particolare al settore del marketing telefonico, credito al consumo, videosorveglianza, e concessionari di pubblico servizio, recupero crediti, settore bancario e finanziario, assicurazioni, lavoro, giornalismo, enti locali e sanità e servizi di assistenza sociale) e 277 ricorsi decisi (soprattutto riguardanti editori, banche e società finanziarie, datori di lavoro pubblici e privati, sistemi di informazione creditizia, PA e concessionari di pubblici servizi).

"Stiamo morendo per eccesso di informazioni" è una frase del critico d’arte italiano Federico Zeri che oggi appare profetica. Davanti ad una Rete sconfinata che non dimentica nulla, noi utenti virtuali continuiamo a riversare sul web, sulle chat e sui social media pezzi della nostra vita, con conseguenze non sempre prevedibili e non di rado tragiche. E così le notizie di ricatti, vendette, umiliazioni pubbliche, furti di identità sono ormai cronaca quotidiana sul web e spesso i colpevoli sono le stesse vittime, incapaci di trattenere il desiderio di trovare un momento di notorietà su Internet. Un atteggiamento favorito e condiviso da un sistema in cui la vera merce sono proprio i dati e le informazioni che vengono venduti e scambiati più o meno legalmente. In relazione a questo una delle attività principali e più intense di cui si è occupata il Garante è stata proprio la protezione dei dati online degli utenti, a partire dai grandi motori di ricerca (dove Google si è impegnata a rendere conforme il trattamento dei dati dei suoi utenti alla normativa italiana) e dai social network (con Facebook che si è imposto di bloccare i profili falsi ed assicurare più trasparenza e controllo agli utenti).

Sul fronte della scuola molto è stato fatto per aiutare gli studenti, le famiglie, i professori e la stessa amministrazione scolastica a muoversi agevolmente nel mondo della protezione dei dati, grazie alla pubblicazione di un vademecum che tenta di spiegare in modo semplice ed efficace quali sono i comportamenti più corretti e meno a rischio da tenere in vari contesti, toccando temi di attualità, dal cyberbullismo alla videosorveglianza, dalle foto pubblicate online all'identità digitale. Dalla guida si evince così l’obbligo per le scuole di informare sempre i diretti interessati sui dati raccolti, sul modo in cui sono raccolti, su come sono utilizzati e a quale fine. Si specifica, inoltre, per quanto riguarda la raccolta dei dati personali necessari al perseguimento di specifiche finalità istituzionali, che le scuole non sono tenute a chiedere il consenso degli studenti. Nonostante questo, ogni persona ha diritto a conoscere se sono conservate informazioni che la riguardano, di apprenderne il contenuto, di farle rettificare se erronee, incomplete o non aggiornate (rivolgendosi direttamente al titolare del trattamento o in caso di riscontro non adeguato sia al Garante sia alla magistratura ordinaria). Le istituzioni scolastiche devono inoltre prestare particolare attenzione a non diffondere dati idonei a rivelare lo stato di salute o giudiziario degli studenti o altri dati personali sensibili, attraverso i tabelloni che riportano ad esempio le votazioni di fine anno o tramite circolari o altri documenti non indirizzati a soggetti specifici. Sul tema delle nuove tecnologie e della condivisione della propria vita tramite social e web il Garante punta, giustamente, l’attenzione sui rischi legati ad una sovraesposizione eccessiva, in particolare al fatto che spesso molte azioni apparentemente innocue e innocenti svolte sui social possono portare a conseguenze anche drammatiche. L’invito rivolto ai giovani, quindi, personale e anche delle istituzioni, è quello di utilizzare le nuove tecnologie con estrema attenzione per evitare il rischio di essere vittime di commenti di odio, cyberbullismo, sexting o altri tipi di ingerenze nella propria vita privata che possono, purtroppo come già è successo, degenerare in situazioni ancora peggiori. Quando e se ciò dovesse avvenire, il consiglio è sempre quello di rivolgersi a compagni, famigliari, professori ed amici, nonché al Garante e alle altre autorità competenti, per risolvere il prima possibile la questione e ripristinare la reputazione ingiustamente lesa. 

Gianluca Cimini

]]>
Tue, 13 Jun 2017 07:28:31 +0000 http://www.gianlucacimini.it/mc/530/1/la-privacy-dei-cittadini-e-degli-studenti-al-centro-del-lavoro-del-garante gianlucacimini2016@gmail.com (Gianluca Cimini)
Bluetooth 5, evoluzione presente che guarda al futuro, e all’internet of things http://www.gianlucacimini.it/mc/529/1/bluetooth-5-evoluzione-presente-che-guarda-al-futuro-e-all-internet-of-things

Ufficializzato nelle sue specifiche definitive a fine 2016, il Bluetooth è ormai realtà nel mercato, anche se i tempi di espansione della nuova tecnologia stanno allungandosi a causa di una adozione rallentata dai grandi colossi della tecnologia. Nato nel 1994 grazie all’azienda svedese Ericsson che volle unificare le tecnologie senza fili di quel momento (proprio come il re Aroldo I Dente Azzurro - da qui bluetooth - che unificò i popoli vichinghi del frammentato regno di Danimarca sotto un'unica nazione nel X secolo) il Bluetooth si affermò velocemente per condividere i nostri ricordi (foto, audio, suonerie, documenti) con le persone, e ora, con il nuovo standard, anche con gli oggetti intelligenti che ci circondano. Infatti, una volta che il nuovo standard si diffonderà nel mondo, inevitabilmente andrà ad influire su quel fenomeno dell’Internet of Things che è destinato a crescere esponenzialmente nei prossimi anni: il nuovo Bluetooth salverà, inoltre, anche le nostre reti WIFI casalinghe, ormai congestionate dai tanti dispositivi collegati, controllando gran parte dei dispositivi dell'Internet delle Cose che oggi si connettono al WIFI come altoparlanti, televisioni o macchine del caffè, fornendo soluzioni destinate all'integrazione non solo in ambito domestico, ma anche aziendale ed industriale. Lo stesso Mike Powell, Direttore del Bluetooth SIG (Special Interest Group), non ha fatto mistero sul fatto che il Bluetooth 5 contribuirà in maniera significativa all'espansione del mercato Io: grazie, inoltre, a più agevoli canali di comunicazione con bacon situati nei luoghi più disparati e ad una connettività wireless sempre più impiegata per fornire servizi location-based. La nuova specifica dovrebbe rendere anche i "beacon Bluetooth" più efficienti. Si tratta di una tecnologia che consente ai dispositivi Bluetooth di trasmettere e ricevere piccoli messaggi entro brevi distanze (una soluzione usata dai negozi in alcune parti del mondo per contattare potenziali clienti e informarli di offerte in corso). Ha dichiarato Mark Powell: “Bluetooth sta rivoluzionando il modo in cui le persone vivono l’esperienza dell’IoT. Bluetooth 5 continua a guidare questa rivoluzione offrendo connessioni IoT affidabili e incentivando l’adozione dei beacon, che a loro volta ridurranno le barriere di connessione, consentendo una perfetta esperienza dell’IoT”.

Più dati e un ampio raggio di trasmissione in più e consumi ridotti in termini pratici. Il nuovo standard, almeno sulla carta, copre un'area quattro volte maggiore, è due volte più veloce (bandwidth di 2 Mbps) e ha una capacità trasmissiva otto volte superiore rispetto al 4.2 LE, che ha avuto una larga diffusione in questi anni nel mercato smartphone. Proprio nel mondo degli smartphone vedremo il primo dispositivo che implementerà questa nuova tecnologia (ossia il Samsung Galaxy S8 seguito successivamente nei trimestri a seguire rispettivamente dallo Xiaomi Mi 6 e dal Sony Xperia XZ Premium). Non basterà, però, solamente utilizzare degli smartphone adibiti alla nuova tecnologia se non ci sono prodotti ad hoc in grado di sfruttare al meglio tutte le nuove caratteristiche, e così il successo di questa nuova tecnologia si baserà anche su quanti e quali dispositivi bluetooth 5 verranno messi in commercio nel prossimo anno, in primis speaker audio portatili e cuffie wireless (che potrebbero sfruttare, per esempio, la nuova funzionalità di doppio invio dell’audio capace di separare l’audio dei contenuti multimediali da quello notifiche, oppure quello di utilizzare due speaker allo stesso momento). Inoltre, grazie al Bluetooth a bassa energia (BLE) si può ridurre maggiormente lo spreco di energia e la dipendenza dalla ricarica dei vari dispositivi. La quinta generazione del bluetooth è , infatti, capace di mantenere una larghezza di banda di oltre 100 metri: parlare a mani libere rischiando di perdere la connessione perché il cellulare è troppo distante da noi sarà ormai un ricordo del passato. Sono state anche perfezionate le capacità di adattamento del segnale, cosa che permette di ridurre le interferenze con altre connessioni wireless come WiFi e LTE, evitando la congestione e garantendo maggiori prestazioni. Uno dei vantaggi più importanti, anche se magari non visibile a molti, sarà un livello di sicurezza maggiore nella trasmissione dei dati: l'informazione che passa da dispositivo a dispositivo è cifrata (in conformità agli standard di difesa del governo degli Stati Uniti e valido soprattutto per i dispositivi IoT), perciò il Bluetooth è particolarmente raccomandato per i dispositivi che controllano la nostra salute o i nostri pagamenti.

Grazie alla nuova velocità di tutte le operazioni possibili (che subirà un incremento notevole grazie alla velocità raddoppiata a 5120 kbps), questo potrebbe dire che magari diventerà più conveniente trasferire file tramite Bluetooth rispetto ai classici hard disk portatili o vecchie chiavette USB. Anche se il mercato Bluetooth 4-4.2 sopravviverà ancora per almeno un paio di anni, aspettiamo dunque di vedere quali grossi ed effettivi miglioramenti potrà portare Bluetooth 5, nel frattempo sicuramente vi converrà aspettare in caso abbiate intenzione di acquistare un dispositivo che utilizzi questa tecnologia, dal momento che difficilmente prima del 2018 il mercato si aprirà totalmente a questa nuova tecnologia: come dicevo il Galaxy S8 di Samsung è l’unico cellulare che, attualmente, supporta questo standard. Ma qualcosa comincerà a cambiare nei prossimi mesi, non sarà un’attesa troppo lunga.

Gianluca Cimini

]]>
Sun, 11 Jun 2017 12:47:14 +0000 http://www.gianlucacimini.it/mc/529/1/bluetooth-5-evoluzione-presente-che-guarda-al-futuro-e-all-internet-of-things gianlucacimini2016@gmail.com (Gianluca Cimini)
Deep and Dark, il Web che non tutti conoscono http://www.gianlucacimini.it/mc/528/1/deep-and-dark-il-web-che-non-tutti-conoscono

Prendendo spunto da un articolo pubblicato nei giorni passati su una delle maggiori testate giornalistiche italiane, si è accesa in me la curiosità di approfondire ciò che da sempre esiste, di cui da molto si parla, ma di cui pochi ancora conoscono sia le funzionalità sia i pericoli: mi riferisco al “Dark Web” quello che potrebbe essere a tutti gli effetti visto come un “mercatino della criminalità” a domicilio.

Perché, se da una parte si possono acquistare libri o film su Ebay o Amazon, allo stesso tempo su altri siti si possono comprare, fin troppo facilmente, armi o documenti falsi, acquistare droga o scambiarsi materiale pedopornografico. E tutto questo mi lascia alquanto sconcertato e preoccupato, proprio per la relativa facilità con cui tutte queste transazioni possano essere effettuate con le giuste conoscenze tecniche.

I dati, in questo caso, non certi, ci dicono quanto sia diffuso questo web sotterraneo: ogni cinque mila persone connesse c’è un utente che naviga sul Dark Web con l’Italia in pole position tra i paesi dove si rivela la maggiore densità di traffico: frequentato prevalentemente di notte da 3-400 mila utenti, soprattutto da giovani tra i 15 e 24 anni. “In questo underground, l’Italia è tra i più evoluti al mondo – ha spiegato all’Ansa Claudio Cilli, docente di Informatica alla Sapienza e consulente del governo per la cybersicurezza e delle Nazioni Unite nei settori delle tecnologie dell’informazione – Il paradosso è proprio questo: il nostro Paese è arretrato sotto l’aspetto della cyber security ed è all’avanguardia per quanto riguarda l’illegalità nel Dark”.

Il sistema che fa accedere alla parte più oscura del web prende l’immagine di una cipolla (e da qui il suffisso del dominio “.onion”) per rappresentare come funziona questo sistema in cui le diverse “sfoglie” della cipolla rappresentano i vari server di tutto il mondo su cui si appoggiano, per solo pochi secondi, i vari siti di merce illegale. Saltellando da un server all’altro sia gli utenti sia i siti illegali risultano così praticamente non rintracciabili. Per fare tutto questo si utilizza la rete di anonimizzazione TOR (acronimo di “The Onion Router”) un sistema gratuito che permette di nascondere il proprio indirizzo IP e la propria identità in Rete “rimbalzando” la connessione fra vari computer sparsi in tutto il mondo. Utilizzato non solo per accedere ad attività discutibili e illegali, ma anche per visitare siti “nascosti” che non si trovano facendo delle normali ricerche in Google.

Il web visibile, quello che utilizziamo tutti i giorni, è visibile solo perché indicizzato dai motori di ricerca (primo fra tutti, Google): non deve sorprendere che si tratti in realtà solamente di una piccola parte dei siti effettivamente online. Tutto ciò che non è visibile è invece parte del “Deep Web”. Non bisogna fare confusione infatti tra Deep Web, Web Sommerso o Invisibile, non indicizzata dai comuni motori di ricerca perché magari composta da nuovi siti, pagine web a contenuto dinamico, web software e siti privati aziendali; ed invece il Dark Web di cui sto approfondendo qui la conoscenza che si riferisce, invece, a quel sottoinsieme irraggiungibile attraverso una normale connessione internet senza far uso, come detto, di particolari software che lavorano su reti sovrapposte ad Internet chiamate genericamente “Darknet”.

Accedere a questi contenuti non è per niente difficile a mia sorpresa, basta installare determinati software sul computer, nati inizialmente con lo scopo di navigare in quasi totale anonimato online, per aprirsi ad un panorama tanto vario quanto agghiacciante: troppo facile registrarsi con un qualsiasi account su siti che offrono armi con matricole abrase (a partire da 600 euro), leggermente più difficile, ma non impossibile, rifarsi una nuova identità per ottenere un passaporto falso o una patente falsa (dove il prezzo si attesta sugli 800 euro). Tutto acquistabile attraverso un acquisto in bitcoin, la cripto moneta così tanto diffusa su internet per ogni tipo di acquisto. I prodotti vengono poi spediti, nel caso delle armi per esempio, con diversi corrieri espressi che consegnano al destinatario i vari pezzi del prodotto finale che deve essere solo rimontato alla fine. Facile, grazie ai vari tutorial che si trovano su internet, come il “meccano” che usavamo da bambini, ma tristemente più letale. Anima di questo Dark Web sono i forum dove gli hacker possono interagire tra loro (e lo fanno con un particolare linguaggio definito “Leet” e caratterizzato da molti caratteri non alfabetici e terminologie volgari) solo dopo aver acquisito una certa reputazione all’interno del forum ed accedere ai link che aprono le porte a qualunque commercio illegale. Esiste attualmente un unico modo per le polizie di tutto il mondo di entrare in contatto con questo mondo, ed è quello di infiltrarsi nei vari forum, acquisendo la fiducia dei criminali per poi riuscire ad incontrarli fuori dal mondo virtuale. Le indagini non hanno portato, però, mai grossi risultati poiché il sistema sembra ancora troppo perfettamente oscuro per indagini accurate, a volte ci si affida più agli errori comuni degli hacker per scovarli fuori dalla loro tana, è questo il caso di Ross Ulbricht, arrestato dall’FBI nel 2013 per il suo portale illegale “Silky Road” scovato solo perché si è connesso per qualche secondo ad un “server civetta” della polizia, oppure al caso di un giovane romano di 24 anni che ha avuto l’ottima idea di comprare un’arma illegale su internet e di postare il video del suo affare su YouTube. Una frontiera selvaggia quella del Dark Web dove non ci sono leggi e si traffica in tutto, senza attualmente possibilità di controllo. C’è da rimanere sconvolti oppure no?

Gianluca Cimini

]]>
Mon, 5 Jun 2017 19:16:10 +0000 http://www.gianlucacimini.it/mc/528/1/deep-and-dark-il-web-che-non-tutti-conoscono gianlucacimini2016@gmail.com (Gianluca Cimini)
Linac4: risolvere il mistero della materia oscura è il prossimo obiettivo del Cern http://www.gianlucacimini.it/mc/527/1/linac4-risolvere-il-mistero-della-materia-oscura-e-il-prossimo-obiettivo-del-cern

Potrebbe essere giunta la volta buona per risolvere i tanti misteri che avvolgono la cosiddetta “materia oscura”: materia, non solo di studio, di cui molti parlano, che alcuni  cercano, ma nessuno sa cosa sia. Di questo elemento così diffuso nell’universo sappiamo cosa non è e come non si comporta, ma nessuno per anni era mai riuscito ad osservarne direttamente una sola particella, almeno finché, ad Aprile 2017, due scienziati della Royal Astronomical Society dell'Università di Waterloo in Canada sono riusciti a catturare un’immagine della materia oscura sfruttando una lente non ottica, ma gravitazionale. Quello che quell’immagine ci riporta è praticamente “un ponte fra due galassie” con la materia oscura che funziona come collante tra le due. Il termine “materia oscura” in cosmologia si riferisce ad un’ipotetica componente di materia che non è direttamente osservabile, in quanto, diversamente dalla materia conosciuta, non emette radiazione elettromagnetica e si manifesta unicamente attraverso gli effetti gravitazionali, ed è proprio mediante misurazioni degli effetti gravitazionali che la sua massa genera sulla materia ordinaria, cioè sui corpi celesti e sulla luce nello spazio, che la sua presenza è stata rivelata. Senza addentrarmi troppo in termini tecnici il fenomeno utilizzato per catturare l’immagine si basa proprio sull’effetto fisico descritto dalla relatività generale di Einstein, per il quale, osservando la luce proveniente da un corpo celeste a grande distanza, tale luce viene deflessa dalla presenza di un altro oggetto di grande massa posto fra l’osservatore e la galassia. Una tecnica speciale attraverso la quale, ha dichiarato il coautore dello studio Seth Epps, “non solo siamo riusciti a vedere che questi filamenti di materia oscura sono presenti nell’universo, ma siamo riusciti ad osservare l’estensione di tali filamenti che connettono le due galassie”.

L’importanza della materia oscura è fondamentale per capire come funziona il nostro universo, dal momento che, secondo osservazioni sperimentali, si ipotizza che ne costituisca la grandissima parte, ossia quasi il 90% della massa presente nell’universo. Teorizzata per la prima volta nel 1933 dallo svizzero Fritz Zwicky durante lo studio delle galassie della Chioma e della Vergine ed approfondita poi vent’anni più tardi dall’astronoma americana Vera Rubin che riuscì a collezionare una serie di dati che dimostravano l'esistenza della materia oscura in tutte le altre galassie e non solo in quelle osservate da Zwicky. Molte sono le teorie dei fisici su cosa effettivamente possa essere la materia oscura: secondo le ipotesi più accreditate si tratta di particelle diverse dai “soliti” protoni, neutroni ed elettroni a noi noti, si tratterebbe invece di particelle molto pesanti che non emettono,  né riflettono, luce e attraversano come fantasmi la materia ordinaria. Quello che sappiamo con certezza, come già accennato, è cosa non è tale materia e quindi non è formata da buchi neri o nane brune.

Il resto dei misteri che circondano questa immensa parte di universo potrebbe, però , trovare alcune risposte a partire dal 2021 quando al CERN entrerà in funzione a pieno regime il nuovo acceleratore lineare di particelle Linac4 (un macchinario costato circa 82 milioni di euro, di quasi 90 metri, posizionato 12 metri sotto il suolo, costruito in 10 anni ed inaugurato proprio in questi giorni). Elemento fondamentale al CERN, un acceleratore lineare di particelle è il primo e più importante elemento della catena da cui poi partono tutti gli esperimenti successivi: al suo interno le particelle subiscono la prima fase di accelerazione e organizzazione in pacchetti che vanno a formare i fasci dell’esperimento. Rispetto al Linac 2, inaugurato nel 1978 ed attualmente in funzione, il nuovo acceleratore sarà in grado di consegnare fasci di protoni con tre volte più energia, e le collisioni di particelle a impatto più elevato forniranno nuovi dati al momento inarrivabili: si potranno così raccogliere 10 volte la quantità di dati durante gli esperimenti. Fabiola Giannotti, italiana e prima donna a diventare direttore generale del CERN, ha voluto esprimersi così durante l’inaugurazione: “Linac 4 è un moderno iniettore e il primo elemento chiave del nostro ambizioso programma di aggiornamento. […] Questa fase di alta luminosità aumenterà notevolmente il potenziale degli esperimenti Lhc per scoprire nuova fisica e misurare le proprietà della particella di Higgs in modo più dettagliato” è , infatti, la luminosità un parametro che indica il numero di particelle che si scontrano in una determinata quantità di tempo e che, grazie al progetto High-Luminosity Lhc, porterà il picco di luminosità a valori più elevati entro il 2025.

Le aspettative sono già da ora tante e si parla di un passo fondamentale verso gli esperimenti futuri, e in particolare della prospettiva di fornire misurazioni più accurate di particelle fondamentali, oltre che di osservare processi rari che avvengono oltre il livello di sensibilità degli strumenti attuali. Sorprenderà, inoltre, sapere che versioni più piccole di “Linac” possiamo trovarle anche in ogni reparto ospedaliero di radioterapia dal momento che i fasci di elettroni si usano per produrre fasci di fotoni (i cosiddetti raggi X) molto intensi usati per eliminare le cellule malate dei pazienti affetti da tumore. Dalla natura galattica, quindi, l’evoluzione delle tecnologie porterà Linac 4 ad avere anche una applicazione nella medicina nucleare, contribuendo al potenziamento delle cure contro il cancro. La scoperta della natura del cosmo passa così anche alla salute umana.

Gianluca Cimini

]]>
Tue, 30 May 2017 18:41:13 +0000 http://www.gianlucacimini.it/mc/527/1/linac4-risolvere-il-mistero-della-materia-oscura-e-il-prossimo-obiettivo-del-cern gianlucacimini2016@gmail.com (Gianluca Cimini)
Hubble: da 27 anni lo spazio che conosciamo è meno oscuro, e più bello, grazie a lui. http://www.gianlucacimini.it/mc/526/1/hubble-da-27-anni-lo-spazio-che-conosciamo-e-meno-oscuro-e-piu-bello-grazie-a-lui

Lanciato in orbita il 24 aprile 1990, il telescopio spaziale Hubble si prepara a festeggiare 27 anni di carriera, ed è un periodo lungo e pieno di scoperte e soddisfazioni quello che lo strumento gestito da NASA e ESA (Agenzia spaziale europea) ha saputo regalarci in questi quasi trent’anni di attività. Nell’immensità e nell’oscurità del cosmo, Hubble ha saputo in questi anni fare un po’ di chiarezza in più rispetto allo spazio che ci abbraccia; regalandoci, inoltre, immagini uniche e mozzafiato del nostro universo come nessuno lo immaginava, immagini che hanno saputo, inoltre, cambiare numerose delle idee che avevamo riguardo all’evoluzione del cosmo e svelare nel dettaglio la bellezza, la meraviglia e la complessità dell’Universo. Hubble non ha solo compiuto innumerevoli scoperte astronomiche, ha anche avvicinato l’astronomia al grande pubblico soddisfacendo la curiosità, accendendo l’immaginazione e producendo un forte impatto su cultura, società, arte.

Decollato ormai anni fa da Cape Canaveral, l’inizio è stato travagliato, segnato da problemi tecnici e di budget che fecero posticipare l’iniziale lancio programmato nel 1983 al 1986, stesso anno in cui la tragedia dello Space Shuttle Challenger (in cui morirono sette astronauti) fece sospendere tutte le missioni per gli Space Shuttle, compresa quella in cui si sarebbe dovuto lanciare il telescopio spaziale. Il telescopio spaziale dovette così rimanere custodito sottochiave in una speciale camera bianca, acceso e pulito con azoto (con costi altissimi per la manutenzione pari a circa sei milioni di dollari al mese). Quello che si rivelò inizialmente un disastro economico garantì però che il software originario, non pronto per la data originaria del lancio, venisse completato e testato a dovere. Anche dopo l’atteso decollo (a bordo dello Shuttle Discovery) non mancarono i guai per Hubble: un difetto nella costruzione dello specchio primario non permetteva di raggiungere la messa a fuoco prevista, per risolvere questo problema la NASA mise in atto una delle missioni più complesse nella storia dello Shuttle durante la quale in undici giorni i membri dell’equipaggio, dopo moltissime passeggiate spaziali, riuscirono a risolvere il problema principale del telescopio. Da quel momento in poi, senza dover contare gli interventi di manutenzioni successivi ordinari già programmati prima della messa in orbita, Hubble ha saputo regalarci grandi soddisfazioni: a lui dobbiamo molte delle sensazionali scoperte relative al Sistema Solare come le foto memorabili delle aurore gioviane, la collisione della cometa Shoemaker-Levy 9 con il pianeta Giove nel 1994, l'avvistamento dei pennacchi di vapore sulla luna di Giove Europa e la scoperta del quarto e quinto satellite di Plutone, nel 2011 e nel 2012.

Ultime solo in ordine di arrivo sono le immagini in alta risoluzione, acquisite tra il 2 e il 22 gennaio 2017, che ritraggono due galassie a spirale, piuttosto simili per struttura e composizione ma differenti per la loro inclinazione, localizzate nella costellazione della Chioma di Berenice, a 55 milioni di anni luce da noi, che mostrano come potrebbe apparire la nostra Via Lattea ad un osservatore esterno. Le due galassie, scoperte nel 1784 dall'astronomo William Herschel, sono parte dell'Ammasso della Vergine, un "grappolo" di quasi 2.000 galassie legate tra loro da un complesso viluppo di forze gravitazionali. Grazie alla “Wide Field Camera 3” Hubble è riuscito a immortalare NGC 4302, una galassia con un un diametro di circa 87.000 anni luce con una grandezza pari al 60% della Via Lattea e un decimo della sua massa; e anche NGC 4298 che, con un diametro di 45.000 anni luce, è grande quanto un terzo della Via Lattea e ha un centesimo della sua massa. Nonostante le due galassie siano relativamente vicine tra loro (da circa 7.000 anni luce) non presentano evidenti deformazioni della loro struttura dovute ad interazioni gravitazionali.

Hubble compie così bene il suo lavoro che ogni anno più di mille astronomi di ogni nazionalità al mondo richiedono di poterlo utilizzare per osservare i loro obiettivi scientifici, ma, a causa dell’elevato numero di queste richieste, i processi di valutazione e selezione delle domande fino ad oggi hanno richiesto tempi molto lunghi. Dico fino ad oggi perché, a breve, verrà lanciato un “classificatore bayesiano” dal nome PACMan in grado di classificare le varie attività di ricerca di Hubble ed identificare gli esperti che dispongono di competenze scientifiche pertinenti al tema proposto, così da velocizzare il processo di selezione potendo sostituirsi in questo modo ai 150 membri della comunità scientifica internazionale che, fino ad oggi, nell’arco di sei mesi, si occupavano di analizzare e selezionare le proposte di alto valore scientifico.

Rivoluzionando il campo dell’astronomia dell’astrofisica per 27 anni, Hubble ha consentito all’umanità di vedere il cosmo come mai prima d’ora ed è ancora lontano dal suo pensionamento, il futuro lo vedrà infatti lavorare ancora per diversi anni, si stima fino al 2030-2040, fino a quando non saranno operativi i suoi successori: il lancio del suo successore il telescopio “James Webb” è programmato per il 2018. Fin dall’alba della civiltà gli uomini hanno alzato gli occhi al cielo per provare a dare un senso a ciò che vedevano ponendosi, inoltre, domande esistenziali sulle nostre origini e sul nostro futuro. Manca poco quindi, e lo dico con emozione, quando NASA ed ESA avranno in orbita una coppia di strumenti formidabili per spingere la nostra conoscenza verso limiti sempre più lontani grazie ad uno strumento in più per provare a scoprire i tanti misteri che permeano, ancora, il nostro cosmo.

Gianluca Cimini

]]>
Thu, 25 May 2017 17:04:39 +0000 http://www.gianlucacimini.it/mc/526/1/hubble-da-27-anni-lo-spazio-che-conosciamo-e-meno-oscuro-e-piu-bello-grazie-a-lui gianlucacimini2016@gmail.com (Gianluca Cimini)
WannaCry: come può un attacco hacker paralizzare i pc di mezzo mondo http://www.gianlucacimini.it/mc/525/1/wannacry-come-puo-un-attacco-hacker-paralizzare-i-pc-di-mezzo-mondo

La recente cyberoffensiva hacker globale “WannaCry” ha paralizzato i pc di mezzo mondo con numeri di diffusione tanto grandi quanto impressionanti: 100 mila attacchi, 150 paesi colpiti, ospedali britannici mandati in tilt e anche 2 università italiane. Un attacco di così ampia scala non era mai accaduto prima e riporta alla ribalta un tema scottante come quello dello sicurezza informatica: i dati sono ancora provvisori e non mi sento di escludere in futuro un’ eventuale rappresaglia o un ulteriore attacco alle stesse grandi aziende ritenute fino ad oggi al sicuro dal lato oscuro del web. L’Europol ha descritto l’attacco “di un livello senza precedenti”.

Dall’Europa agli Stati Uniti, arrivando fino alla Russia e a Taiwan. Il virus, secondo quanto ricostruito da alcuni esperti, appartiene alla famiglia dei ransomware, quelli cioè che prendono in ostaggio pc e smartphone e poi chiedono agli utenti il pagamento di un riscatto (ransom), prevalentemente in bitcoin, per restituire i dati sottratti indebitamente. L’attacco, secondo la ricostruzione del Financial Times, sarebbe stato perpetrato utilizzando strumenti rubati all’Agenzia di sicurezza nazionale degli Stati Uniti, precisamente utilizzando “EternalBlue”, una cyber arma trafugata negli scorsi giorni alla NSA dal gruppo hacker Shadow Brokers. Quei software utilizzati per spiare mezzo mondo sono diventati così i mezzi per infettare migliaia di computer, bloccando le funzionalità e mettendo in ostaggio i dati degli utenti e delle società in attesa del pagamento del riscatto. La stessa Microsoft aveva tirato in ballo la NSA in un comunicato ufficiale deplorando i rischi insiti nell’arsenale di “exploit” di cui dispongono le agenzie governative e già da Marzo aveva messo a disposizione degli utenti un aggiornamento per bloccare eventuali attacchi hacker attraverso la vulnerabilità nota “EternalBlue”,due mesi, quindi, che sarebbero stati utili per proteggersi dall’eventuale attacco, che poi si è avverato veramente, e che non sono stati sfruttati a dovere. Le decine di migliaia di personal computer colpiti dal ransomware WannaCry sono, infatti, accomunati da due caratteristiche: girano su piattaforma Windows e nessuno di questi era aggiornato all'ultimo aggiornamento che la casa di Redmond aveva rilasciato. La maggior parte dei pc delle aziende, infatti, tende ancora oggi ad utilizzare software ormai vetusti e il cui supporto, in fatto di aggiornamenti e risoluzione di problematiche legate a falle nel sistema, è ormai terminato da anni.

«I governi di tutto il mondo dovrebbero considerare questo attacco come un campanello d'allarme. Bisogna adottare un approccio diverso e applicare al cyberspazio le stesse regole applicate alle armi nel mondo fisico. C'è bisogno che prendano in considerazione i danni ai civili provenienti da queste vulnerabilità. Questo è uno dei motivi per cui abbiamo chiesto a febbraio una nuova “Convenzione digitale di Ginevra” per poter governare queste questioni» questa è la posizione ufficiale di Microsoft, che con gli ultimi aggiornamenti del suo sistema operativo ostacola la diffusione del virus “WannaCry” e paragona la sottrazione dei codici NSA a quella di un furto di armi convenzionali all’esercito statunitense: è come se gli Hacker praticamente fossero riusciti a trafugare dei potenti missili Tomahawk dai depositi superprotetti di armi dell’esercito americano. Un aiuto alla situazione potrebbe arrivare dal futuro codice europeo per la protezione dei dati, che renderà obbligatorio da fine maggio per le aziende di grandi dimensioni condividere i dati di un eventuale attacco. Grazie alla condivisione si potrà conoscere il virus e creare il giusto antivirus per combatterlo. Ma la guerra silente deve anche muoversi a priori.

Ma perché siamo così vulnerabili? La risposta è semplice: si ignorano le più banali regole sulla cyber sicurezza, specie perché basterebbe scaricare un banale software per proteggersi dagli attacchi informatici. E quello che può essere un problema per un singolo utente diventa un enorme problema quando ad essere attaccati sono i computer di sedi istituzionali, ospedali, università ed altre sedi fondamentali per il mantenimento del funzionamento di un paese. A volte si rimanda, a volte si sottovaluta il rischio e così gli aggiornamenti del sistema operativo e dei software che dovrebbero essere automatici e periodicamente controllati lasciano un ampio margine per eventuali intrusioni perpetrate da hacker senza scrupoli. Non che è i server se la cavino meglio dal momento che a volte risultano non adeguati per poter ospitare sofisticate versioni aggiornate di antivirus.

Ed intanto la tensione per l’attacco hacker non tende a diminuire: sia in Gran Bretagna, il paese più bersagliato con 48 aziende ospedaliere bloccate per colpa del virus, sia in Cina, dove l’attacco ha colpito 30.000 sedi istituzionali, sia altrove regna il timore che l’attacco possa essere rinnovato. Nonostante sia ancora presto per scoprire chi ci sia dietro l’attacco e per quali ragioni, oltre a quella di prendere in ostaggio i pc per chiedere un riscatto, la conclusione di alcuni ricercatori esperti di sicurezza informatica, derivata dalla somiglianza tra quest’ultimo attacco e quello perpetrato nel 2014 contro la Sony, ipotizza che ci sia la Corea del Nord dietro il massiccio cyberattacco su scala globale che da giorni sta tenendo sotto scacco un centinaio di Paesi. Se sia vero o solo un modo per giustificare azioni di ritorsione futura nei confronti di questo paese, lo scopriremo solo con il tempo. Un evento di così grande richiamo mi auguro che possa essere lo spunto per una prossima azione collettiva urgente, sia tra stati sia tra aziende, poiché il settore tecnologico, i clienti ed i governi comincino a lavorare insieme per proteggerci dagli attacchi futuri che, pur partendo da un mondo virtuale, rischiano di sabotare la nostra vita reale. Ricordiamolo: la sicurezza informatica non è un costo ma un investimento.

Gianluca Cimini

]]>
Thu, 18 May 2017 18:43:10 +0000 http://www.gianlucacimini.it/mc/525/1/wannacry-come-puo-un-attacco-hacker-paralizzare-i-pc-di-mezzo-mondo gianlucacimini2016@gmail.com (Gianluca Cimini)
Tra SPID, CIE e CNS, il cittadino digitale italiano a che punto sta? http://www.gianlucacimini.it/mc/524/1/tra-spid-cie-e-cns-il-cittadino-digitale-italiano-a-che-punto-sta

Mi ricordo ancora quando l’Europa lanciò uno dei suoi primi piani d’azione sul governo elettronico, a inizio nuovo millennio la rete si stava pian piano diffondendo anche nelle case di molte nazioni europee e ancora più lentamente in quelle di noi italiani, ma l’entusiasmo verso un mondo motivato dallo slogan “più file meno file” era frutto dell’ottimismo e della convinzione che la rete avrebbe potuto cambiare tutto: un Internet meno caro, più rapido e sicuro; la possibilità di investire negli uomini e nelle competenze; di incentivare l'uso della rete e di liberalizzare il mercato delle telecomunicazioni. In questi quindici anni molte cose sono state fatte, molte altre no, ma nel suo complesso il sistema Paese ha perso colpi, sprecato tempo e occasioni preziose. L’Italia arranca nelle ultime classifiche europee in quanto ai servizi online messi a disposizione da enti e aziende pubbliche e private riguardo al fenomeno evolutivo dell’eGovernment.

Ormai nel 2017 poter accedere in via telematica ai numerosi servizi offerti dalla Pubblica Amministrazione (PA) è una comodità irrinunciabile. Non solo per l'utente , che può sbrigare così tutte le proprie incombenze comodamente da casa senza perdere tempo in file interminabili, ma anche per le stesse amministrazioni, che liberano risorse e tempo prezioso da destinare ad altri compiti. Confondersi, però , quando la comunicazione non è efficace e mette troppa carne al fuoco, è lecito per molti, ancora di più per chi è completamente analfabeta sui vari termini legati all’ eGovernment.: SPID, CNS o CIE, senza informazioni adeguate, rimangono solo sigle incomprensibili.

A differenza di altri paesi europei, dove esistono portali integrati per la Pubblica Amministrazione , in Italia ancora questo servizio non è presente, ma i servizi online, anche dove presenti, non sono perfettamente integrati tra loro: e pensare che è dal 2010 che tale progetto viene discusso (prima con italia.gov.it e poi con “Italia Login”)  ,ma ancora siamo costretti a cercare tra i tanti siti il servizio che ci serve nella speranza che il tutto non si traduca solo in un file da scaricare che poi ci rimandi allo sportello fisico per risolvere le nostre questioni burocratiche. Secondo la Commissione Europea siamo al 25° posto, su 28, nella classifica della “Digital Economy and Society Index 2017”. Riguardo alla Pubblica Amministrazione l'erogazione dei servizi è aumentata, ma la percentuale di utenti è scesa al 16% contro il precedente 18%, simbolo forse che i servizi sono erogati male e risultano poco accessibili.

Nata ad inizio millennio esclusivamente come strumento di identificazione in rete la Carta Nazionale dei Servizi (CNS) è uno standard di riferimento per vari tipi di carte che possono essere emesse da enti diversi: tessere dello studente, tesserini dei vari ministeri, strumento di firma per le Camere di commercio. Probabilmente già tutti la possediamo, senza esserne nemmeno a conoscenza, dopotutto, se la nostra Tessera Sanitaria è plastificata e dotata di chip dorato, teniamo una CNS nel nostro portafoglio già da anni. Se non siamo stati fino ad oggi consapevoli di averla tra le nostre mani, probabilmente è perché sia la comunicazione a riguardo da parte della PA è stata poco efficace, sia perché, in effetti, non sappiamo effettivamente come può essere utilizzata, e anche se ne venissimo a conoscenza l’iter per l’utilizzazione necessita di un lettore di smart-card e dell’attivazione della stessa presso gli sportelli abilitati della regione di appartenenza: non il massimo della semplicità e dell’efficienza.

L'altro strumento che permette l'identificazione dei cittadini è la Carta d'Identità Elettronica (CIE) di recente introduzione. Ne sono dotati 344.190 italiani e, a regime - il governo dice entro il 2018, ma anche in questo caso sarà dura rispettare i tempi - sostituirà di fatto la carta di identità cartacea nelle nazioni dell'Unione Europea e fa le veci del passaporto per il transito in molti altri stati. La carta d’identità cartacea italiana dopotutto è la più falsificata d’Europa, urge, quindi, da anni un cambiamento forte e la nuova CIE, quindi, sarà estremamente più sicura, supportando i più recenti standard in fatto di cifratura dei dati e contenendo foto e impronte digitali dell’utente. Arrivata alla sua terza versione la Carta d’identità Elettronica, dotata di un chip wireless, può essere letta dai dispositivi utilizzati dalla strumentazione di controllo presente, ad esempio, in frontiera, da lettori da tavolo commerciali e da smartphone dotati di interfaccia NFC. Per ottenere la nuova CIE 3.0 si deve andare sul sito ufficiale del Ministero dell’Interno e verificare se il proprio comune ha già attivato l’emissione, in caso negativo aspettare l’attivazione del servizio, per ora sono solo 199 su 8.000 i comuni che offrono tale servizio, ma il numero è in crescita.

CIE e CNS sono due strumenti complementari, non equivalenti, anche se entrambi possono essere utilizzati per l'accesso ai servizi erogati dalle PA, presentano però alcuni limiti tecnologici che non le rendono particolarmente versatili, né universalmente utilizzabili, aprono però le porte ad un terzo strumento, di nuova invenzione: il “Sistema Pubblico per l’Identità Digitale” (SPID) che potrebbe dare uno svolta al nostro ruolo di cittadini digitali. Ad un anno dalla sua implementazione l’SPID è un pass-partout unico per ogni servizio della PA, utile ad evitare code agli sportelli e perdere ore di lavoro utilizzabili in ben altro modo. L'elenco dei servizi di pubblica amministrazione è piuttosto ampio, circa 4.155 servizi erogati da 3.654 amministrazioni, e così, per esempio, possiamo controllare la nostra situazione INPS, INAIL, fare visure, pagare tasse e tributi, o effettuare prenotazioni varie. SPID introduce diverse novità: anzitutto, essendo completamente dematerializzata e non richiedendo l'utilizzo di un particolare supporto permette un accesso facile da qualsiasi dispositivo di fruizione, desktop, notebook, tablet o smartphone. Addio ,inoltre, alla miriade di user e password da tenere a mente per interloquire con ministeri, regioni, comuni, scuole, fisco, previdenza sociale o aziende sanitarie varie.

L'identità SPID, inoltre, si ottiene facendone richiesta ad uno degli identity provider accreditati, consentendo così a ciascun utente di scegliere liberamente il gestore di identità digitale preferito fra quelli autorizzati dall'Agenzia per l'Italia digitale (AgID), al momento tali Gestori accreditati sono cinque: Poste, TIM, Aruba, Infocert e Sielte. L’obiettivo del Governo, entro il 2017, è quello di offrire tale servizio a più di dieci milioni di cittadini italiani. Obiettivo ambizioso sicuramente, perché significa che ogni Pubblica Amministrazione deve essere in grado di interagire con la piattaforma predisposta dall'Agenzia per l'Italia Digitale, vedremo come andrà nei mesi a venire. L'identità SPID è costituita da credenziali con caratteristiche differenti in base al livello di sicurezza richiesto per l'accesso. Esisteranno tre livelli di sicurezza, ognuno dei quali corrisponderà a tre diversi livelli di identità SPID. CIE e SPID, inoltre, sono strumenti di "autenticazione forte" che permetterebbero ai comuni di identificare con certezza assoluta i cittadini partecipanti ad una consultazione online, si aprono insieme ad un futuro di “Democrazia diretta online” ma a riguardo ci sarebbe ancora molto da scrivere e discutere. Rimane, comunque, il mio pensiero che un cittadino più informato sia un cittadino meglio governato. Oggi come ieri, Internet può rispondere a questa esigenza, mettersi al servizio della complessa macchina dello Stato per riformarlo profondamente, renderlo più efficiente, più vicino alle esigenze dei cittadini, dopotutto la trasparenza può significare meno corruzione e portare ad una rinnovata fiducia nelle istituzioni.

Gianluca Cimini

]]>
Tue, 16 May 2017 20:10:36 +0000 http://www.gianlucacimini.it/mc/524/1/tra-spid-cie-e-cns-il-cittadino-digitale-italiano-a-che-punto-sta gianlucacimini2016@gmail.com (Gianluca Cimini)
Biotecnologie e longevità: come cambierà la nostra vita - di Gianluca Cimini http://www.gianlucacimini.it/mc/523/1/biotecnologie-e-longevita-come-cambiera-la-nostra-vita---di-gianluca-cimini

“Forever Young, i want to be forever young” cantavano gli Alphaville nel 1984, e se adesso nel 2017 ancora non si può rimanere eternamente giovani, sicuramente grandi passi sono stati fatti per regalarci una vita più longeva nonché migliore grazie alla combinazione dello studio del DNA e all’avvento delle biotecnologie (il cui termine deriva proprio da βίος, bìos = "vita" , τέχνη (téchne), "arte" nel senso di "perizia", "saper fare", "saper operare", e λόγος, lògos = “studio”). Le biotecnologie, grazie all’applicazione e allo studio di qualunque tecnologia sviluppata o sviluppabile dall’uomo nel campo della biologia, vengono, infatti, impiegate in molti campi di ricerca: dalla Bioingegneria, alla Biofisica, passando per l’Ingegneria genetica, senza escludere il campo delle farmacologia e della medicina, ed ancora il biorisanamento (ossia il trattamento, riciclo e la bonifica dei rifiuti attraverso microrganismi attivi). Riprendendo una delle definizioni più complete disponibili possiamo affermare che “La biotecnologia è l'applicazione tecnologica che si serve dei sistemi biologici, degli organismi viventi , o di derivati di questi , per produrre o modificare prodotti o processi per un fine specifico.”

Pur non servendosi di microrganismi, sono classificate come biotecnologie anche le nuove terapie mediche o alcuni innovativi strumenti diagnostici, come per esempio le tecniche di DNA e RNA microarray utilizzate in genetica ed i radiotraccianti utilizzati in medicina. E gli esperti del settore Biotech, come il genetista Edoardo Boncinelli, avvertono: “Siamo vicini ad un salto quantico, sarà un gioco da ragazzi modificare tutti i genomi, compreso il nostro. Il cosiddetto taglia-incolla del DNA non rappresenta un grosso cambiamento concettuale, ma lo è da un punto di vista pratico perché permette di modificare il DNA velocemente, a basso prezzo e con un’enorme precisione.” E così mentre ancora si parla e discute di OGM in Italia, gli esperti del settore si dicono già pronti a fare il grande salto, ossia “ritoccare” geneticamente anche gli esseri viventi, ma prima ci sarà da preparare la gente all’evento. Uno scenario dove sicuramente esiste ancora troppa diffidenza ed ignoranza sull’argomento e probabilmente molti sono ancora impreparati ad affrontare il tema, proprio per questo gli anni a venire saranno fondamentali per capire quanto la Biotecnologia potrà portare dei benefici reali alla nostra vita futura.

L’importanza delle biotecnologie si estende ben oltre il potenziale economico, poiché riguarda anche la vita quotidiana degli esseri umani. Come diceva il Dottor Veronesi: “La durata della nostra vita è geneticamente codificata. Intervenendo sui geni la si può estendere”. Dai miti greci al “Ritratto di Dorian Gray”, passando per la leggenda di Faust, allungare la vita è sempre stato il sogno degli esseri umani.

Due nuovi studi, pubblicati su Science e Cell in questi giorni, stanno cercando di azzerare i danni al DNA creati normalmente dall’avanzare del tempo, stimolando il rinnovamento dei tessuti per mantenerli eternamente giovani. Lo studio è già riuscito a fermare il tempo biologico sui topi di laboratorio ma potrebbe in futuro aiutare i malati di cancro o essere utilizzato su persone sane ma esposte a fattori di rischio elevati come gli astronauti impegnati nelle future missioni dirette su Marte. Il farmaco in questione agisce potenziando l’azione di una molecola naturalmente presente nelle cellule ed accelera i meccanismi di riparazione del DNA riuscendo così a cancellare i danni causati dall’invecchiamento e dall’esposizione alle radiazioni. Un elisir di lunga vita, quindi, capace di indurre al suicidio le cellule più anziane dell’organismo risparmiando però quelle normali e senza causare effetti collaterali. La fantascienza entra nell’ordinario così e il prossimo passo sarà la sperimentazione sull’uomo. Altre ricerche prevedono invece che biomateriali, somministrati attraverso una speciale bomboletta spray sulla superficie del cuore danneggiato da infarto, possano formare un gel capace di riparare il cuore senza bisogno di punti di sutura e di chirurgia a torace aperto, una notevole evoluzione, quindi, dei già esistenti cerotti rigenerativi sperimentati fino ad oggi che necessitano però ancora di essere innestati direttamente a contatto con gli organi che desiderano proteggere.

La ricerca dell’elisir , oltre ad affascinare molti, è uno dei temi più intriganti nel mondo della biotecnologia, probabilmente anche per questo l’azienda con sede a Londra “Tiziana Life Sciences” ha comprato nel 2016 il DNA di 13.000 sardi dalla regione Sardegna per condurre studi legati alla ricerca contro il cancro e contro le malattie del sistema immunitario. Quella dell’Ogliastra, nella Sardegna centro-orientale, è infatti la zona al mondo con la più alta proporzione di centenari insieme all’isola giapponese di Okinawa. Obiettivo dello studio trovare il legame fra patrimonio genetico e longevità. Costo dell’operazione 258.000 euro, ma i politici locali dicono che questa operazione di lunga gittata avrebbe un valore molto maggiore, forse superiore ai 4 milioni di euro.

Il rapporto 2016 “Le imprese di biotecnologie in Italia” (redatto da Assiobiotec con la collaborazione di Enea) fotografa un settore nazionale comprendente circa 500 imprese capaci di fatturare oltre 9,4 miliardi di euro e con previsioni di crescita a due cifre per i prossimi anni. Più di 9.200 persone sono impegnate in questo settore ad alta intensità di ricerca dove la quota di addetti in ricerca e sviluppo è molto alta (circa cinque volte per esempio rispetto all’industria manifatturiera). A frenare un settore pronto ad espandersi sono ancora una volta: burocrazia, frammentazione, poco trasferimento tecnologico e misure di supporto strutturale ancora poco competitive. Quello che si augurano i critici del settore, e che mi aspetto da tempo anche io, è l’istituzione di una cabina di regia centrale e comune per l’intero sistema capace di coordinare ed organizzare i vari interventi legati alla ricerca ed all’innovazione, individuando le priorità ed indirizzando le eventuali risorse disponibili. 

Gianluca Cimini

]]>
Sun, 14 May 2017 09:46:45 +0000 http://www.gianlucacimini.it/mc/523/1/biotecnologie-e-longevita-come-cambiera-la-nostra-vita---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Imprese familiari e logiche di governance a loro associate - di Gianluca Cimini http://www.gianlucacimini.it/mc/522/1/imprese-familiari-e-logiche-di-governance-a-loro-associate---di-gianluca-cimini

Nate inizialmente in relazione alle società a capitale aperto, sia quotate sia partecipate, le tematiche relative alla corporate governance, a seguito della trasformazione del mercato dei capitali ed all’evoluzione dei rapporti banca-impresa, ultimamente si stanno indirizzando anche verso quelle società private, a capitale chiuso, il cui controllo risponde a gruppi familiari con l’eventuale partecipazione di soci di minoranza, non finanziari, con ruoli diretti o indiretti nella gestione aziendale. Come anticipato, tale tentativo di applicare i concetti e i principi della corporate governance alle società private nasce dai nuovi rapporti banche-imprese definiti dalle regole stabilite dal Comitato di Basilea, ossia quelle regole che richiedono modalità di finanziamento più strutturate, con parametri di valutazione delle imprese più oggettivi e con una maggiore attenzione ai piani di sviluppo aziendali e agli assetti societari e di governo aziendale. Quando si parla di aziende familiari e di corporate governance è opportuno prima dare una definizione precisa di cosa effettivamente sia, a prescindere dallo status di società quotata, partecipata o privata, un’azienda familiare ossia: quell’impresa di capitali dotata di un’autonoma struttura economica e patrimoniale, la cui proprietà ed il cui governo aziendale sono controllati o da un’unità familiare semplice (intesa come un individuo, anche insieme al coniuge, che possiede la maggioranza del capitale sociale e che governa l’impresa con l’obiettivo della continuità e della successione ai propri eredi, che assumeranno il controllo della proprietà e della gestione aziendale), o da un’unità familiare complessa (ed in questo caso ci riferiamo ad un insieme di individui legati da vincoli familiari diretti che possiedono collettivamente la maggioranza del capitale sociale, i cui componenti partecipano al governo dell’impresa mediante il possesso delle quote societarie e/o la presenza a vario titolo negli organi societari e/o nelle strutture direttive e operative dell’impresa), o, infine, più unità familiari che singolarmente non hanno la maggioranza del capitale sociale e che governano congiuntamente l’impresa con accordi statutari e parasociali. Sono due le forme di controllo a cui, in una logica di governo, possono rispondere le aziende familiari: quella concentrata, nel caso di titolarità nelle mani di un unico soggetto o di un unico gruppo familiare con una struttura semplificata, o quella allargata, nel caso di titolarità formata da più unità familiari o di un’unità familiare formata da più individui. Rispetto a quelle quotate e partecipate, inoltre, le aziende familiari private si differenziano per alcune particolarità come:

  • la sovrapposizione tra il controllo, la partecipazione al capitale sociale ed il management (in cui le differenze tra soci di controllo e soci di minoranza sono più limitate e fondate su rapporti interrelati, questo porta anche a logiche di successione che sono più predeterminate perché i soggetti che sono destinati a subentrare nella proprietà e nella possibile condizione aziendale rispondono a ragioni ereditarie);
  • ma anche dalla commistione e l’interdipendenza tra il patrimonio familiare e quello aziendale che, anzi, risulta proprio uno dei tratti più rilevanti per la governance delle aziende familiari private (il patrimonio aziendale può essere, infatti, utilizzato per accedere a fonti di capitale che sono finalizzate a soddisfare finalità ed interessi del gruppo familiare esterni a quelli dell’azienda);
  • nonché dalla presenza e la rilevanza di modalità di rapporti informali nei processi di governo aziendale che influenzano e determinano le dinamiche delle formali strutture e procedure societarie e aziendali, portando così le istanze di governance per le aziende familiari private ad essere più complesse nella loro applicazioni rispetto ad altri casi;
  • l’ultima differenziazione è, invece, la mediazione tra le finalità di lucro delle attività d’impresa e quelle che rispondono agli interessi e ai valori individuali e collettivi del gruppo familiare, per cui gli obiettivi ed i livelli di remunerazione del capitale investito possono essere compensati dall’esigenza di soddisfare altre istanze.

La relazione tra famiglia, proprietà e impresa e tipologie di aziende familiari può essere inoltre descritta in maniera più chiara attraverso il famoso “modello dei tre cerchi di Tagiuri e Davis” (1982 e 1996) in cui ci si riferisce alla proprietà, alla famiglia e all’impresa come a tre gruppi distinti che vengono sempre più a contatto a seconda della diversa tipologia di azienda interessata, e, quindi, i legami aumentano passando dalle aziende familiari quotate, crescendo in quelle partecipate fino quasi a confluire in quelle private. In maniera più precisa nelle aziende quotate, la famiglia la proprietà e l’impresa hanno relazioni contigue, ma distinte, perché debbono rispondere ai requisiti e alle condizioni dei mercati regolamentati che garantiscono gli interessi degli investitori e dei risparmiatori e la corretta, nonché trasparente ed equilibrata negoziazione dei titoli azionari. In quelle partecipate, invece, le relazioni tra i tre gruppi sono più integrate tra loro, anche se debbono ancora essere gestite e regolate con un’adeguata distinzione per garantire l’interesse dei terzi investitori. Nelle aziende private, infine, si presenta una fisiologica sovrapposizione tra la famiglia, la proprietà e l’impresa e, proprio per questo, le regole di governance debbono essere strutturate per garantire che le relative relazioni siano funzionali a soddisfare i diversi interessi e la capacità di sviluppo e di continuità delle attività aziendali. Riassumendo, le aziende familiari private coniugano i tratti propri delle imprese commerciali che perseguono le finalità primarie della produttività, della competitività e della remuneratività del capitale investito con quelli propri delle imprese cooperative in cui prevalgono i valori fondamentali della comunità d’interessi, della partecipazione dei soci alle attività aziendali e della solidarietà tra tutti i partecipanti alla base sociale. Le criticità delle politiche di governance aziendale, infine, nascono proprio, a mio avviso, dalla capacità di soddisfare, e al tempo stesso, strutturare i valori e le relazioni familiari che sono in larga misura di tipo informale e difficilmente inquadrabili in regole e procedure formali.

Gianluca Cimini

]]>
Mon, 8 May 2017 20:06:35 +0000 http://www.gianlucacimini.it/mc/522/1/imprese-familiari-e-logiche-di-governance-a-loro-associate---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Dall’Apollo 16 a Space X: l’esplorazione spaziale continua a far sognare http://www.gianlucacimini.it/mc/521/1/dall-apollo-16-a-space-x-l-esplorazione-spaziale-continua-a-far-sognare

Sono passati 45 anni da quanto la missione Apollo 16 della Nasa, precisamente il 21 aprile 1972, atterrava per la quinta e penultima volta sulla Luna. Partita dal Kennedy Space Center a Cape Canaveral, in Florida, la decima missione del programma spaziale statunitense Apollo si concluse 11 giorni dopo con un “tuffo” nell’Oceano Pacifico, (non senza difficoltà dal momento che tre giorni dopo il lancio, il sistema di navigazione computerizzato smise di funzionare correttamente e gli esperti astronauti dovettero determinare la loro posizione attraverso un classico e semplicissimo sestante e non con strumenti altamente sofisticati o tecnici). Quella fu la prima volta che una missione Apollo raggiungeva gli altopiani della Luna, un luogo scelto per permettere agli astronauti di raccogliere materiali geologici più antichi rispetto a quelli raccolti nelle quattro missioni precedenti (e che permise di riportare sulla terra, oltre a dati ed informazioni uniche,  anche 95,8 chilogrammi di campioni lunari per analisi più approfondite). L'atterraggio sulla superficie lunare per la prima volta non poté essere trasmesso in diretta televisiva, dato che la stazione trasmittente del modulo lunare si era guastata. Solo dopo che fu montato il trasmettitore del rover lunare, si poté iniziare a trasmettere le prime immagini dei lavori sulla Luna eseguiti durante questa missione. Dei tre partecipanti alla missione solo il comandante John Young e il pilota del modulo lunare Charles Duke, toccarono il suolo della Luna, mentre Ken Mattingly rimase a bordo del modulo di comando. I due astronauti trascorsero così 71 ore sulla superficie del nostro satellite, durante le quali condussero tre ‘passeggiate’ lunari che durarono complessivamente 20 ore e 14 minuti, utilizzando in queste passeggiate per 26,7 chilometri il rover lunare LRV alla sua seconda missione.

In 45 anni la conquista allo spazio ha subito rallentamenti ed accelerazioni varie, ad oggi però solo dodici fortunati eletti nella storia dell’umanità hanno avuto l’occasione e la possibilità di camminare sul nostro satellite. Astronauti che hanno ispirato una generazione, e che non sarebbe sbagliato considerare vicini a nomi di grandi esploratori “terrestri” come Cristoforo Colombo o Roald Amundsen, che hanno saputo spostare, non senza difficoltà, il limite estremo della frontiera sempre un pò più avanti sia sulla Terra sia sullo Spazio. "Era un luogo incontaminato e ovunque andassi sapevo che nessuno era mai stato là prima, quindi era da brividi” ha raccontato Charles Duke riguardo alla sua missione a bordo dell’Apollo 16. La descrizione della Luna fatta da Duke ci riporta “un deserto senza vita, senza atmosfera, ma con una bellezza particolare. […] Come colore era in gran parte grigio, con forti contrasti fra l'oscurità dello spazio e la luminosità della superficie esposta al sole.” Ma è curioso anche ricordare che, di fronte a tanta bellezza, l’espressione di stupore di Charles Duke alla sua prima passeggiata sul suolo lunare fu in un imperfetto italiano: “Mamma Mia!”.

Quelle di 45 anni fa erano sicuramente settimane colme di entusiasmo e di sogni verso uno spazio lontano, ma che si faceva sempre più vicino. Erano gli anni subito dopo lo sbarco sulla Luna, ed erano i giorni del lancio di Apollo 16, la quinta missione a portarvi delle persone. Erano gli anni in cui in radio  passava, con la voce di Elton John, la storia di un astronauta che salutava sua moglie e la sua terra prima della sua missione spaziale: “I’m a rocket man – (Sono un uomo razzo) Rocket man burning out his fuse up here alone – (Uomo razzo che sta fondendo le sue valvole qui da solo)”. Il tema spaziale era stato già affrontato nella musica pop con grande successo da una canzone che rimane ancora oggi una delle musiche che meglio accompagnarono quegli anni di conquiste spaziali: Ground Control to Major Tom - Commencing countdown, engines on - Check ignition and may Gods love be with you cantava un giovane David Bowie ancora prima di diventare lui stesso uno “Starman waiting in the sky”, via di mezzo tra un uomo e un alieno pronto a portare sulla terra un messaggio di pace e speranza sotto forma di musica.

A distanza di anni le missioni Apollo sono state, a mio parere, tra le più grandi avventure nella storia dell’umanità e, anche fra un migliaio di anni, sicuramente , verrano ricordate con lo stesso entusiasmo che sto esprimendo io adesso. Proprio quando era iniziata con successo l’attività di ricerca ed esplorazione della Luna, la modifica dell’indirizzo politico americano di quegli anni decretò la fine delle missioni lunari, nonostante esistessero, ormai, l’equipaggiamento e la tecnologia necessarie per ancora grandi scoperte ed avventure. Sino ad oggi abbiamo una base scientifica orbitante intorno alla terra, ma nessuno può escludere che un giorno una base scientifica fissa e stazionaria sulla Luna non potrebbe rientrare nei piani dei governi mondiali: Russia e Cina stanno già pianificando nei loro programmi spaziali di mandare nuovamente dei cosmonauti sul nostro satellite entro il 2029.

Se le previsioni poi si riveleranno vere, dopo la Luna la nostra frontiera dovrebbe spostarsi ancora un po’ più in là così da raggiungere, per la prima volta con un equipaggio umano, Marte entro il 2030. L’inizio di una nuova era spaziale, come avevo già scritto settimane fa, è ormai all’occhio di tutti grazie alle nuove tecnologie messe in campo da governi mondiali e da filantropi magnati come Elon Musk. L’impresa di SpaceX, con il successo legato al riutilizzo di un razzo spaziale “riciclato”, chiude simbolicamente un capitolo della storia dell'esplorazione spaziale e ne apre un altro, quello della sfida per far diventare ordinari i lanci, gli atterraggi e le ripartenze dei razzi, a costi inferiori e con tempi molto ristretti rispetto a quelli che sono lo standard di oggi. Più i costi per le missioni spaziali si abbasseranno e più sarà possibile cimentarsi in qualcosa di sempre più grande e avventuroso. Siamo ancora in una fase sperimentale, ma la concezione avuta fino ad oggi riguardo alle missioni spaziali sta mutando.

Gianluca Cimini

]]>
Sat, 6 May 2017 17:01:55 +0000 http://www.gianlucacimini.it/mc/521/1/dall-apollo-16-a-space-x-l-esplorazione-spaziale-continua-a-far-sognare gianlucacimini2016@gmail.com (Gianluca Cimini)
E-Sim, l’evoluzione della comunicazione mobile abbraccia l’IoT http://www.gianlucacimini.it/mc/520/1/e-sim-l-evoluzione-della-comunicazione-mobile-abbraccia-l-iot

Una volta era la SIM, acronimo di “Subscriber Identity Module”, la piccola smart card dotata di chip elettronico capace di archiviare in modo sicuro il numero univoco associato a tutti gli utenti di telefonia mobile di reti GSM o UMTS al momento della stipula di un contratto telefonico. Si inseriva nel telefono cellulare e da quel momento la nostra “identità mobile” era pronta a comunicare con il mondo. La prima SIM risale al 1991 e nasce grazie all’azienda Giesecke & Devrient di Monaco di Baviera.

Con il tempo abbiamo visto evolversi questa smart card verso forme fisiche sempre più piccole (l’ultimo modello che si trova sui cellulari di ultima generazione si chiama addirittura “nano”) ed allo stesso tempo con capacità di memoria ed affidabilità sempre maggiori. Meno spazio fisico necessario per archiviare i dati univoci del possessore del telefono attraverso la SIM permettono, inoltre, ai costruttori di cellulari di avere più libertà nella progettazione degli smartphone del futuro grazie a millimetri fisici liberi da utilizzare per nuovi componenti hardware più performanti. Non è un caso, infatti, che gli ultimi telefoni, o oggetti di design e di status sociale per alcuni, ne facciano sempre più uso alla ricerca forsennata del cellulare dal design più essenziale e funzionale possibile. Con l’introduzione e l’inizio della produzione nel 2016 della cosiddetta E-SIM (ossia Embedded Subscriber Identity Module) la rivoluzione della telefonia mobile non cessa di continuare ma anzi potrebbe stravolgere per sempre il mondo dei gestori telefonici con possibili vantaggi sia per i produttori di telefoni, sia per gli operatori. Senza dimenticare tutti gli utenti telefonici. La vecchia SIM, diventata prima “micro” ed infine “nano” per permettere la creazione di prodotti sempre più piccoli e compatti, vede nella sua più moderna versione la sparizione totale del “pezzetto di plastica” e la nascita di un chip, già inserito dai produttori nello smartphone, in grado di gestire le informazioni di sicurezza, autenticazione e connessione per uno o più operatori. Cosa significa questo?

La possibilità per l’utente di avere diversi contratti ed operatori su un unico terminale e di poter passare velocemente dall’uno all’altro, a seconda delle esigenze del momento, potendo associare più profili tariffari ad uno stesso dispositivo. Inoltre senza il bisogno di cambi fisici delle varie SIM anche le operazioni di cambio di gestore potranno essere velocemente gestite online con estrema semplicità. Anche la sicurezza vedrà un incremento poiché, a differenza del passato quando si doveva bloccare la SIM persa o rubata, adesso basterà effettuare nuovamente il login dal nuovo device e disattivare quello precedente senza perdita di dati. Il rischio, di fronte ad una vantaggiosa possibilità di cambiare operatore e tariffe online, potrebbe essere quello che, con il tempo, diminuiscano i vari negozi fisici degli operatori telefonici. Se è vero, da una parte, che l'attuale modello di business potrebbe essere stravolto, dall'altra si potrebbe assistere ad un vero e proprio abbattimento dei costi, eliminando progressivamente i punti vendita ed avviando offerte e campagne winback totalmente online, con la possibilità di potersi accaparrare clienti in maniera più veloce ed efficace. Per i produttori di telefonia il vantaggio si applica, invece, nella progettazione dei futuri smartphone, specie nei casi di quelli unibody impossibili da aprire, con la cessazione dell’utilizzo di “carrellini fisici” a scomparsa per inserire la vecchia SIM all’interno del terminale: più spazio guadagnato, come dicevamo, vuol dire più spazio utilizzabile per altri componenti hardware fondamentali per il telefono come batteria o altro.

In commercio esistono già dei pionieri di questa nuova tecnologia: Apple e Samsung. La prima nel 2014 aveva già introdotto la sua SIM virtuale all’interno di “iPad Air 2”, in quel caso un semplice menù all’interno del software del tablet dava all’utente la possibilità in fase di attivazione di scegliere un operatore ed un piano tariffario legato al suo iPad semplicemente scorrendo tra le varie opzioni dei menu di configurazione. Samsung, invece, ha presentato nel 2016 il suo smartwatch “Gear S2 Classic 3G” con supporto integrato alle E-SIM, in quel caso configurazione e scelta delle tariffe potevano essere effettuate semplicemente abbinando il wearable allo smartphone.

La vera rivoluzione, a mio avviso però, sarà quella legata all’IoT (internet of things) che coinvolgerà a brevissimo smartwatch, sensori vari ed elettrodomestici della casa del futuro, che necessiteranno sempre di più di essere connessi alla rete per sfruttare tutte le loro nuove caratteristiche. In questo caso il supporto da parte delle telco è totale, in quanto consentirà di aprire un vero e proprio segmento di mercato oggi praticamente inesplorato. Uno studio focalizzato sulla forte crescita del numero di dispositivi M2M e IoT induce a prevedere che la distribuzione di e-SIM supererà quello delle carte SIM tradizionali nel corso dei prossimi anni. Secondo un'indagine condotta da Juniper Research, entro il 2020 la eSIM rappresenterà oltre il 50% delle connessioni M2M (machine-to-machine, quelle appunto inserite nei vari dispositivi connessi). Dotando sin dalla fabbrica gli apparecchi di E-Sim, gli operatori delle telecomunicazioni non si ritroverebbero più a fungere da intermediari come accade nel presente: il terminale diventa, quindi, parte attiva, scartando una compagnia per un’altra sulla base del criterio del campo disponibile: il numero di telefono associato alla SIM, si libera dal vecchio vincolo dell’appartenenza ad un brand piuttosto che un altro, superando anche il concetto di roaming. Grazie all’eSIM, inoltre, smartwatch e smartband non avranno più bisogno di essere costantemente collegati al proprio smartphone via Bluetooth, in quanto essi potranno godere di connettività “propria”, garantita dalle reti GSM e dalle loro evoluzioni (3G, LTE), il tutto senza dover collegare alcuna scheda al dispositivo. Prodotti come automobili, wearable, elettrodomestici (solo per citarne alcuni), cominceranno ad essere realizzati con a bordo proprio questa soluzione, che consentirà di poter definitivamente far esplodere il fenomeno della Internet of Things, aprendo alle telco un mercato da miliardi di dollari.

Gianluca Cimini

]]>
Tue, 2 May 2017 17:49:15 +0000 http://www.gianlucacimini.it/mc/520/1/e-sim-l-evoluzione-della-comunicazione-mobile-abbraccia-l-iot gianlucacimini2016@gmail.com (Gianluca Cimini)
Shenzen, dove la Cina tenta di diventare la nuova Silicon Valley http://www.gianlucacimini.it/mc/519/1/shenzen-dove-la-cina-tenta-di-diventare-la-nuova-silicon-valley

Dal 1971, anno in cui per la prima volta è stato coniato il nome corrente dal giornalista Don C.Hoefler, la cosiddetta “valle del silicio” è stata il paradiso mondiale per innovatori, startup ed industrie pronte a lanciarsi sul mercato tecnologico, in primis come fabbricanti di semiconduttori e di microchip, e a seguire per produttori di software e fornitori di servizi di rete attratti dalle caratteristiche peculiari della “Bay area” che si trova nella parte meridionale dell’area metropolitana della Baia di San Francisco. La Silicon Valley, diventata quasi un luogo mitologico di culto, ha visto crescere esponenzialmente fin dal 1939, anno di fondazione dell’ Hewlett-Packard, prima grande azienda di elettronica civile a stabilirsi nell’area, il numero di aziende ad alta tecnologia che hanno deciso di creare il loro quartiere generale in questa mitica parte d’America: Apple, Amazon, Cisco, Ebay, Facebook, Google, Intel, Microsoft, Netflix, Paypal, Samsung, Yahoo, solo per citarne le principali. Per decenni la Silicon valley è stata il posto dove le idee, specie se innovative, diventavano realtà: con un livello di disoccupazione minore del 15%, qui chiunque abbia competenze, passione e voglia di fare, ha buone possibilità di trovare un lavoro adeguato. L’ossessione per i grandi manager è di puntare alla gente giovane e volenterosa, ma soprattutto alle grandi idee che potrebbero diventare il business del futuro. Il dinamismo qui, più che in altre parti del mondo, inutile citare la situazione italiana che tutti un po’ conosciamo, è un valore aggiunto tra i più importanti. E mentre in America per questo 2017 si punta molto alle tecnologie legate alla Realtà Virtuale e alla Realtà Aumentata, all’avvento della Smart Home, alle Intelligenze Artificiali ancora più evolute, all’Internet delle Cose e a molte altre scommesse che potrebbero decretare il prodotto o l’idea del futuro, l’altra parte del mondo non sta a guardare con le mani in mano.

Trentasei anni, questo il tempo che c’è voluto per far diventare un villaggio di pescatori immerso dentro la natura una megalopoli da più di 10 milioni di abitanti, fatta di grattacieli altissimi e di uno skyline in continuo mutamento, capace di produrre da sola il 30% del PIL nazionale cinese. A più di diecimila chilometri di distanza dalla California così “Shenzen", nel sud della Cina, sfida l’America per salire al primo posto nel business delle telecomunicazioni. Le distanze con la Silicon Valley, grazie al supporto della Repubblica Popolare Cinese su sovvenzioni e prestiti, oggi si accorciano sempre di più. Trentasei anni, il periodo in cui il PIL medio di Shenzen è cresciuto con un tasso medio annuo del 22%, una cifra quasi impossibile da immaginare, specie se come me aveste visto le foto di quel piccolo villaggio di pescatori scattate nel 1980. Un boom che si è verificato non solo, però , grazie al supporto dello stato cinese, ma anche alle tante aziende statunitensi che su quel territorio hanno puntato negli anni per delocalizzare, ovviamente con spese minori rispetto al suolo americano, la produzione hardware. All’inizio degli anni ottanta, come accennato, sono arrivati, quindi, i primi investimenti stranieri spinti dalle condizioni fiscali favorevoli offerte dal governo. Investire subito e regolamentare successivamente è stato il motto della città, infatti, che ha giustificato solo a posteriori l’immane ingresso di fondi internazionali grazie ad un quadro giuridico costruito ad hoc.

Shenzhen, città industriale nella provincia meridionale di Guangdong, può essere definita oggi senza dubbio la Cupertino cinese. Anche perché, dopotutto, tutti gli iPhone della “mela” vengono costruiti qui, nella gigantesca azienda chiamata “Foxconn” che dà lavoro a più di un milione di lavoratori a suon di tablet e smartphone costruiti con tecniche avanzatissime a fronte di una manodopera sicuramente “conveniente”, ma non per questo di scarsa qualità. Leggi differenti o anche la mancanza di una regolamentazione precisa sui diritti dei lavoratori permettono a queste grandi aziende di “ottimizzare” il lavoro a fronte di turni lunghi, ripetitivi e massacranti. Da quello che rivelano i racconti di certi ex operai le condizioni di lavoro nelle fabbriche cinesi non sono delle migliori, anzi, tutto si riduce magari in un turno di 12 ore a compiere lo stesso movimento meccanico di inserimento di una vite nella parte posteriore di uno smartphone per circa 1800 volte al giorno, con poche pause e il controllo assoluto sulla catena di montaggio così da rimproverare i lavoratori poco efficienti togliendo denaro dallo stipendio. Triste sentire che il bene dei lavoratori probabilmente viene subordinato alla produzione industriale, sicuramente sono notizie che non sorprendono, ma che continuano a fare male.

Anche il terzo produttore di smartphone al mondo dopo Apple e Samsung ha il suo quartiere generale qui e prodotti sempre più venduti anche in Italia arrivano da noi con il marchio “Huawei”. Una città nella città, praticamente, dove lavorano e vivono dentro 3200 appartamenti circa 50 mila persone. Un’azienda in crescita capace non solo di seguire le altre aziende leader del settore, ma anche di impegnare parte del proprio fatturato nel campo della Ricerca e Sviluppo con cifre ragguardevoli ( il 10% del proprio fatturato annuale va a questa divisione di fronte ad un 3,5% nel caso di Apple nella stessa divisione, per esempio) con l’obiettivo di passare da semplici produttori ad innovatori mondiali; e qui basta leggere i dati aggiornati riguardanti l’incremento esponenziale dei brevetti in ambito tecnologico registrati in Cina a partire dagli anni 2000 per capire quanto ormai la grande Repubblica Popolare Cinese si appresti ad insidiare l’America in questa particolare classifica. Un obiettivo portato avanti anche grazie all’importanza data alla formazione dei lavoratori nel settore hi-tech: Huawei per esempio ha lanciato il programma “0” per offrire corsi di alta formazione a circa duemila studenti europei nei prossimi cinque anni.

Modernità ed innovazione si incontrano così a Shenzen, nella città che da sola riprende molte delle sfaccettature e delle contraddizioni della Repubblica Popolare Cinese, dove prende forma il futuro in una città in divenire sospesa tra un passato rurale e un presente in cui il mantra è il consumo e l’obiettivo crescere e dominare il mercato.

Gianluca Cimini

]]>
Thu, 27 Apr 2017 22:17:56 +0000 http://www.gianlucacimini.it/mc/519/1/shenzen-dove-la-cina-tenta-di-diventare-la-nuova-silicon-valley gianlucacimini2016@gmail.com (Gianluca Cimini)
Earth Day 2017: il mondo delle rinnovabili è in continua crescita - di Gianluca Cimini http://www.gianlucacimini.it/mc/518/1/earth-day-2017-il-mondo-delle-rinnovabili-e-in-continua-crescita---di-gianluca-cimini

Giunta ormai alla quarantasettesima edizione, torna il 22 aprile la “Giornata Mondiale della Terra”, un’occasione per ricordarci quanto importante sia salvaguardare il nostro pianeta promuovendo cambiamenti nelle politiche e nei nostri modi di vivere quotidiani. Fortemente voluta dal senatore statunitense Gaylord Nelson, e nata il 22 aprile 1970 come movimento universitario ecologista, “l’Earth Day” coinvolge ogni anno fino a un miliardo di persone sul pianeta grazie a manifestazioni che si svolgono nelle piazze più importanti del mondo, ed anche in questo caso l’Italia non sarà da meno, grazie a numerosi eventi ed iniziative per commemorare e salvaguardare il nostro pianeta (in primis e per il quarto anno consecutivo Villa Borghese a Roma ospiterà dal 21 al 25 aprile il “Villaggio per la Terra” dove si parlerà principalmente del tema “Educazione ambientale in festival”). Nato in America (a seguito del disastro ambientale di Santa Barbara nel 1969) l’Earth day si è, quindi, largamente diffuso a livello globale a partire dall’anno 2000 presentandosi come un momento unico per affrontare molte delle problematiche contro cui il nostro pianeta si trova a dover combattere: dalla distruzione degli ecosistemi all’inquinamento di aria, acqua e suolo, dall’esaurimento delle risorse non rinnovabili all’estinzione di migliaia di piante e specie animali. “Se lo scorso anno abbiamo festeggiato lo storico accordo sul clima di Parigi, che vedeva uniti i 193 Paesi dell’ONU nella volontà di contenere le emissioni di C02, quest’anno Earth Day Italia vuole lanciare un messaggio forte e di stimolo nei confronti di tutte quelle politiche che, cavalcando il generale clima di sfiducia e rabbia, alzano muri e continuano a sfruttare senza remore le risorse naturali. Con il Villaggio per la Terra vogliamo mettere in scena e in festa il sentimento di solidarietà universale che esiste ancora, potente, tra le persone e che è capace di generare il cambiamento. Per questo invito tutti i cittadini a unirsi e partecipare” questo l’augurio di Pierluigi Sassi, presidente di Earth Day Italia.

Un evento di così importante spessore mi ha dato modo di pensare ancor di più a come effettivamente ci si stia muovendo sul tema dell’ecologia e dell’energia sulla terra, perché anche se già un miliardario filantropo come Elon Musk sta parlando della colonizzazione di Marte e dei viaggi spaziali che inizieranno a breve, sarà ancora il nostro pianeta Terra a doverci accogliere per ancora qualche annetto. Il continuo innovare di Tesla, azienda leader di Elon Musk, che non produce solo automobili, ma si occupa anche di elettricità, vuole essere uno spunto per tutto il mondo a passare all’energia rinnovabile, l’idea è facilmente comprensibile ed altamente affascinante: vivere in un mondo capace di abbandonare l’utilizzo dei combustibili fossili per il suo fabbisogno energetico. Nei calcoli del magnate, con l’ausilio di 100 Gigafactory a pieno regime sarebbe possibile produrre energia rinnovabile per il mondo intero. Una Gigafactory non è altro che un enorme fabbrica di batterie di Tesla alimentate ad energia solare, citata anche nel documentario di Leonardo Di Caprio sul riscaldamento globale, che si sta ultimando in Nevada negli Stati Uniti. Una volta completata la fabbrica sarà più grande di 100 campi da calcio messi insieme e fornirà lavoro a più di 22 mila persone. Cifre importanti ed altissime a parte, l’obiettivo immediato sarà quello di ridurre i costi delle batterie per i prodotti Tesla, ma subito dopo il progetto potrebbe interessare numeri ancora più grandi se , effettivamente, le affermazioni di Musk su un mondo alimentato totalmente da energia sostenibile fossero veritiere. Staremo a vedere, sicuramente ogni affermazione dell’eccentrico magnate riesce sempre a lasciarmi con domande e temi interessanti a cui dedicarmi con maggiore concentrazione. Come se lo scopo ultimo delle sue aziende fosse quello di regalare al mondo un futuro migliore, ultimamente Musk ha affermato sul tema, a favore dei paesi in via di sviluppo e con una popolazione sempre più numerosa, che: «Il vantaggio di avere batterie che si ricaricano con l’energia solare è che si può evitare di costruire centrali elettriche. Un villaggio sperduto può ricavare l’energia che gli serve da batterie alimentate col sole, senza dipendere da migliaia di tralicci ad alta tensione. È più o meno quello che è già successo con le linee telefoniche: nei paesi in via di sviluppo non hanno costruito le linee telefoniche fisse, ma sono passati direttamente a quelle mobili».

Un mondo sempre più “green” è anche quello che viene descritto da uno studio commissionato da Greenpeace e realizzato dal centro di ricerca CE Delft, che analizza le politiche e la situazione dei singoli paesi europei: entro il 2050 metà dei cittadini europei genererà da solo l'energia necessaria al proprio fabbisogno, rivendendo il surplus sul mercato. Tradotta questa affermazione vorrebbe dire che entro 35 anni da oggi più di 264 milioni di persone (tra singole famiglie e piccole e medie imprese) saranno in grado di coprire il 45% del fabbisogno elettrico europeo grazie all'energia rinnovabile. L’Italia, secondo Greenpeace, ha grandi potenzialità, ma ha la necessità di provvedimenti più chiari capaci di sancire il diritto per le persone di produrre la propria energia rinnovabile fatta in casa, rivoluzionando in questo modo il sistema energetico europeo e togliendo il supporto alle grandi aziende che inquinano. La previsione, se ciò avverrà, con tariffe adeguate per i cittadini che immettono in rete l'elettricità prodotta in eccesso e che usano sistemi di accumulo e sono impegnati nella gestione della domanda, è che in Italia entro il 2050 almeno due italiani su cinque potranno contribuire alla produzione di energia. Tutto in linea, quindi, con il progetto più grande del presidente dell’UE Juncker di far diventare l’Europa il “numero uno delle energie rinnovabili”.

Per fortuna, mentre da una parte c’è ancora chi nega l’effetto serra e l’importanza di politiche mondiali per salvaguardare il paese, il tema dell’ecologia e del fabbisogno energetico del nostro pianeta rimane in primo piano: da Google, per esempio, che entro il 2017 coprirà tutta la sua richiesta energetica da energia rinnovabile e pulita, agli studi in California per recuperare energia dagli ingorghi stradali, o all’energia pulita in Scozia fornita dalle correnti sottomarine. Il mondo appare così un pò più “green” e non posso che felicitarmene.

]]>
Mon, 24 Apr 2017 19:01:11 +0000 http://www.gianlucacimini.it/mc/518/1/earth-day-2017-il-mondo-delle-rinnovabili-e-in-continua-crescita---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
5G e IoT: il matrimonio perfetto per la connessione del futuro - di Gianluca Cimini http://www.gianlucacimini.it/mc/517/1/5g-e-iot-il-matrimonio-perfetto-per-la-connessione-del-futuro---di-gianluca-cimini

Più di un miliardo di connessioni 5G entro il 2025, queste le previsioni di GSMA, l’associazione che riunisce le aziende operative nella telefonia mobile, rivelate durante lo scorso Mobile World Congress di Barcellona. Una tecnologia quella ultra veloce ed in velocità che rivoluzionerà la comunicazione offrendo potenzialità sempre maggiori alla telefonia mobile e, soprattutto, porterà l’internet delle cose e gli oggetti connessi ad un livello superiore. Quello tra 5G e IoT (Internet of Things ) potrebbe essere, infatti, il matrimonio perfetto, ci tengo a spiegarvi il perché di questa  mia affermazione.

Il nuovo standard, successore ed evoluzione del 4G, verrà definito a livello unificato e globale entro il 2018 e si espanderà su larga scala già per la fine del 2019 secondo le varie stime degli esperti del settore. L’obiettivo principale del 5G è riuscire a garantire una banda dati tale da garantire la connessione veloce all’aumento dei dispositivi elettronici attivi e passivi che avverrà esponenzialmente nei prossimi anni. Con il passaggio alle velocità approssimative di 100 o 200 megabit al secondo del 4G, con il 5G metteremo effettivamente il turbo alle nostre connessioni mobili. Ogni cella dati sarà in grado di supportare fino a 20 Gbps in download e fino a 10 Gbps in upload (tale banda sarà ripartita ovviamente per tutti i dispositivi connessi). Sempre per questo motivo, ogni cella sarà in grado di supportare fino a 1 milione di dispositivi per chilometro quadrato e questo aprirà ancora di più le porte all’IoT. Non soltanto maggiore velocità, ma anche reti più fitte, più vicine agli utenti, grazie a un proliferare di piccole celle. Si supererà in un colpo solo il gap esistente con l’odierna fibra ottica, già di per sé molto performante al momento: velocità oltre 25 volte maggiori ed, inoltre, senza la necessità di costose infrastrutture fisse. Utilizzando bande più elevate, oggi usate di rado, il 5G consentirà di inviare e ricevere un volume maggiore di dati in modo più rapido, usando quantità illimitate di frequenze nella medesima connessione. La mobilità, con il 5G, diventerà davvero parte della nostra vita, abbattendo le ultime distanze rimaste tra noi e tutto ciò che è connesso a internet. E questo anche grazie alle nuove latenze: quelle massime del 5G sono di 4 millisecondi, secondo l'ITU (agenzia Onu per le telecomunicazioni). A parte una velocità maggiore per l’invio e la ricezione dei dati, cosa effettivamente porterà la rivoluzione 5G me lo sto chiedendo da giorni, i campi di utilizzo sono molteplici. La differenza si vedrà a livello collettivo, più ancora che nell’esperienza dei singoli utenti, con il 5G sarà però possibile collegare tra loro, tutti insieme, un’enorme quantità di sensori e dispositivi, per permettere una trasmissione dati rapidissima. La bassa latenza del nuovo standard permetterà di connettere sensori con grande affidabilità alla città del futuro, una smart city che sfrutterà così le nuove performance nel campo dell’energia e delle varie utility cittadine quali luce, gas e acqua, controllando consumi e fabbisogni, riducendo gli sprechi ed evitando i blackout (immaginate dei lampioni “smart” che si attivano solo quando “captano” persone o veicoli). Gli stessi sensori consentiranno di gestire in maniera più efficiente il traffico ed il trasporto pubblico grazie ad aggiornamenti in tempo reale (lo scenario prevede anche automobili connesse tra loro in maniera automatica per prevenire rallentamenti o incidenti sul percorso e ridurre la congestione stradale). A livello di sicurezza inoltre, grazie alla molta banda disponibile sulla rete, le varie telecamere e sensori potranno più facilmente avvertire e rivelare un pericolo mettendo così in moto un sistema di allarme immediato. Per quando riguarda l’intrattenimento, inoltre, si aprirà il mondo mobile allo streaming in ultra alta definizione ed alla realtà virtuale che richiede molta banda per funzionare a dovere. I test per la nuova tecnologia di comunicazione nel frattempo non smettono di fermarsi e così in Corea del Sud, per esempio, grazie ai nuovi prototipi di antenne fissate sui montacarichi delle automobili è stato possibile effettuare una trasmissione di dati da punto a punto in movimento, veloce e stabile, anche su un’automobile lanciata alla velocità di 170 chilometri orari. Test riuscito e che apre, quindi, il sogno di collegare migliaia di oggetti contemporaneamente, abilitando la connessione tra i veicoli e tra il veicolo e le infrastrutture della città, permettendo alle auto di identificare eventuali pericoli, avere informazioni sul traffico e mappe costantemente aggiornate. Al Mobile World Congress, inoltre, un’auto reale connessa su una pista a 50 km dalla fiera è stata guidata tramite un simulatore attraverso lo scambio di dati sulla rete 5G, fondamentale, quando si parla di frenate immediate è stato il tempo ridottissimo di latenza che apre scenari ancora più fantascientifici (ma che stanno diventando sempre più reali) come anche quello di un altro esperimento nel campo della telemedicina , dove una telecamera ha ripreso un paziente e mandato immagini in tempo reale ad un medico dall’altra parte del mondo, che attraverso un visore di realtà virtuale ed un guanto elettronico poteva controllare un robot che materialmente eseguiva l’operazione. Ed intanto già da ora l’americana Verizon si è detta pronta ad offrire il suo servizio 5G ai consumatori di 11 città per sperimentare e testare la sua prima rete super veloce, un test che aprirà ancora di più le porte a questa tecnologia.

Come ogni nuova tecnologia il successo si baserà su come effettivamente verrà sfruttata e su quali servizi riuscirà ad offrire agli utenti di rete mobile (che entro il 2021 saranno circa 5,5 miliardi). Le stime di Accenture, secondo un recente rapporto internazionale sugli scenari di utilizzo delle future reti, ci dicono che il nuovo standard potrebbe, solo negli Stati Uniti, creare fino a 3 milioni di nuovi posti di lavoro e contribuire fino a 500 miliardi di dollari sul PIL americano tra investimenti diretti ed indotto. Un giro di affari mondiale, stavolta secondo Ericsson e Arthur D.Little, previsto di 46 miliardi di dollari entro il 2021 fino ai 582 miliardi nel 2026. Sono questi dati non certi, ma sicuramente incoraggianti, si apre insomma un mercato mondiale molto redditizio dove è fondamentale non rimanere indietro, lo dico anche per la questione italiana sull’assegnazione delle future frequenze radio che tarda ad arrivare e che potrebbe, quindi, posticipare l’arrivo del 5G nel nostro paese. Ancora una volta è la politica italiana che deve impegnarsi a cancellare questo gap rispetto agli altri paesi del mondo, mi auguro che sarà così. Insomma, connettività illimitata, automazione intelligente, maggiore copertura territoriale e accesso facilitato a internet: il 5G ha le carte in regola per cambiare la nostra esperienza, i dispositivi elettronici fissi appartengono ormai al passato. La mobilità veloce è il futuro che ci attende e che si prefigura già da ora pieno di potenzialità.

Gianluca Cimini

]]>
Wed, 19 Apr 2017 17:52:48 +0000 http://www.gianlucacimini.it/mc/517/1/5g-e-iot-il-matrimonio-perfetto-per-la-connessione-del-futuro---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Dieci anni di competizioni tra Hacker a caccia di bug: il "Pwn2Own" 2017 http://www.gianlucacimini.it/mc/516/1/dieci-anni-di-competizioni-tra-hacker-a-caccia-di-bug-il-pwn2own-2017

Arrivata alla sua decima edizione, e conclusa pochi giorni fa, la competizione tra hacker per eccellenza chiamata “Pwn2Own” ha decretato anche quest’anno quali sono i software più afflitti da eventuali bug di programmazione che li rendono quindi meno sicuri e più idonei ad eventuali attacchi. Il termine con cui si indica questo importante evento di hacker si riferisce ai verbi inglesi “to pwn” che significa hackerare e al termine “to own” che viene utilizzato invece nei videogiochi per umiliare l’avversario sconfitto. Scopo finale della competizione è, infatti, quello di riuscire a trovare delle falle in specifici software, in particolare modo i browser per navigare su internet, e i sistemi operativi degli smartphone di ultima generazione, in maniera tale da risolvere anche gli eventuali bug di programmazione per creare prodotti sempre migliori (anche se programmi perfetti ed inattaccabili difficilmente mai esisteranno proprio per la grande difficoltà che risiede intrinseca nella programmazione informatica con le sue tante variabili di cui un programmatore deve sempre tener conto). Ai vincitori della competizione vanno sia un premio in denaro (variabile, ma che nel 2012 ha raggiunto la ragguardevole cifra di un milione di euro offerta da Google a chi avesse “bucato” Google Chrome), sia il computer o l’apparecchio su cui sono riusciti ad eseguire l’exploit. Anno dopo anno il successo dell’evento è stato sempre maggiore e sono tanti i nomi importanti (come: Internet Explorer, Mozilla Firefox, Google Chrome, Safari, BlackBerry, iPhone, Android, Windows Phone) che sono caduti in battaglia durante questa decade.

Grattacapi sono stati registrati praticamente per quasi qualsiasi altro software famoso in circolazione: Microsoft Edge, il browser moderno preinstallato su Windows 10 e fermo ancora al 5% di quota di mercato, è risultato il browser meno sicuro poiché vittima del numero maggiore di exploit, hackerato almeno cinque volte in tre giorni specialmente a causa dell’engine JavaScript Chakra. A onor del vero bisogna anche dire che sì, effettivamente Microsoft Windows e Microsoft Edge sono stati i software maggiormente attaccati nei tre giorni della manifestazione, ma la maggior parte degli attacchi sono comunque riusciti. Inoltre la scelta potrebbe essere stata dettata proprio dalla consapevolezza da parte dei team di una debolezza strutturale che avrebbe favorito il successo. Nel campo dei browser a seguire abbiamo trovato Safari, il browser dei Mac, violato tre volte, e poi Mozilla Firefox che ha subito due attacchi tentati di cui solo uno è andato a buon fine. Solo Chrome di Google è riuscito indenne dalla competizione: su un solo tentativo di aggressione il team di hacker non è riuscito a completare l’exploit nei tempi indicati per la competizione.

Questa decima edizione ha fatto segnare, però, un record rispetto alle edizioni precedenti, per la prima volta, infatti, in un solo attacco hacker sono stati violati browser, sistema operativo e virtual machine. Le virtual machine (macchine virtuali) vengono solitamente utilizzate per isolare sistema operativo e dati dei singoli clienti in un servizio di hosting. VMWare Workstation è, invece, molto popolare tra gli utenti desktop che vogliono mantenere separato il sistema operativo host (quello in cui viene eseguita la virtual machine) dal sistema operativo guest (quello eseguito nella virtual machine). Ciò dovrebbe impedire ai contenuti infetti di passare dal secondo al primo, superando le difese della macchina virtuale. L’hack in questione ha comunque messo in chiaro che la massima sicurezza non è garantita nemmeno da una virtual machine. La tripletta è stata ottenuta da ben due team differenti presenti all’evento che così hanno potuto portarsi a casa un assegno sostanzioso e la vetta della classifica generale. Per ottenere questo straordinario risultato il team di hacker cinese “360 Security” ha prima trovato il bug all’interno di Microsoft “Edge”, per poi passare subito dopo all’immagine di Windows su cui girava ed, infine , alla virtual machine che gestiva il sistema operativo in esecuzione, e tutto nel tempo record di 90 secondi sfruttando sia un bug heap overflow sul browser, sia un buffer non inizializzato su VMWare Workstation, ed infine un bug nel kernel di Windows.. Vulnerabilità diverse per risultati simili che hanno portato un altro team, il Tencent Security Team Sniper ad ottenere lo stesso risultato pur non avendo utilizzato a bordo della virtual machine strumenti software di alcun genere in grado di mettere in comunicazione il sistema operativo ospite con l’hardware della macchina.

Altri exploit, meno eclatanti, ma comunque importanti, hanno portato a dimostrare la profonda preparazione e bravura degli hacker che hanno saputo per esempio piazzare una scritta arbitraria sulla Touchbar interattiva dell’ultima versione dei MacBook grazie ad una falla di Safari per accedere alla struttura di Mac Os, un chiaro esempio di come anche il sistema operativo di Cupertino non sia così sicuro come si è pubblicizzato invece per anni. Sorti simili per Adobe con i buchi verso sia Flash sia Reader, e per la prima volta in questa edizione verso Ubuntu Linux 16.10. Fortunatamente, dopotutto è proprio questo lo scopo della competizione, tutte le vulnerabilità sfruttate durante la competizione di hacking vengono segnalate ai rispettivi sviluppatori, in questo modo le società hanno modo e tempo di risolverle e di rilasciare aggiornamenti di sicurezza: solo dopo questo passaggio vengono rese di pubblico dominio.

Molte cose sono cambiate in dieci anni di evoluzione tecnologica: quando è nato questo particolare evento ancora non si parlava della crescita dei “ransomware”, di attacchi hacker tra blocchi continentali contrapposti, dell’evoluzione del “cloud”, dell’esplosione dei “bitcoin”, né nessuno aveva mai sentito parlare dell’ “Internet of Things”; semplicemente perché molte di queste creazioni tecnologiche esistevano solo in chiave teorica prima di crescere ed affermarsi nel mondo reale come possiamo vederlo con i nostri occhi in questo momento. E più cresce l’importanza della tecnologia nella nostra vita, più ovviamente crescono proporzionalmente i rischi legati a tale tecnologia che permea la nostra vita e che lo farà sempre di più negli anni a venire.

Gianluca Cimini

]]>
Sat, 15 Apr 2017 12:40:38 +0000 http://www.gianlucacimini.it/mc/516/1/dieci-anni-di-competizioni-tra-hacker-a-caccia-di-bug-il-pwn2own-2017 gianlucacimini2016@gmail.com (Gianluca Cimini)
Il fuoco non ferma la cultura: a Napoli riapre la Città della Scienza - di Gianluca Cimini http://www.gianlucacimini.it/mc/515/1/il-fuoco-non-ferma-la-cultura-a-napoli-riapre-la-citta-della-scienza---di-gianluca-cimini

Era il 4 marzo del 2013 quando una della strutture didattiche per la cultura scientifica più grandi e prestigiose d’Italia, a seguito di un incendio doloso, smetteva di esistere. A distanza di 4 anni rinasce presso lo stesso terreno che l’aveva ospitata la prima volta, ossia a Bagnoli in provincia di Napoli, la Città della Scienza che ospiterà anche “Corporea” il più grande museo interattivo d’Europa sui segreti del corpo umano ed un Planetario che fungerà anche da cinema 3D. Per combattere l’ignoranza e la violenza non c’è modo migliore, a mio avviso, di mostrare l’Italia che vale e che segue i suoi obiettivi e risultati: il progetto per la ricostruzione della Città è stato firmato in tempi record, per come siamo stati abituati almeno, come in tempi record la Città ha visto la sua rinascita. Solo lavorando a testa bassa e senza intoppi, con la volontà di farlo, si può raggiungere un obiettivo importante come questo, ossia quello di tornare ad essere un punto di riferimento nel panorama delle istituzioni culturali del Paese e del territorio. Grazie al crowfunding che ha permesso di raccogliere 1,4 milioni di euro dalla solidarietà di tante persone ed associazioni e grazie all’imponente finanziamento statale, per un importo complessivo di 23,9 milioni di cui 18,6 con fondi della Regione e 5,3 a carico di Città della Scienza, è tornato dalle ceneri, in questo caso il termine mi pare alquanto appropriato, un grande complesso scientifico che vuole essere, anche e soprattutto, un grande polo di attrazione turistica. Il presidente del Senato Pietro Grasso si è così espresso, con convinzione, riguardo alla riapertura della Città: "accanto a una crescita storica, culturale e artistica, l'innovazione tecnologica dia sviluppo, dia lavoro e serva anche a migliorare la vita dei cittadini".

Il nuovo polo scientifico museale, che si appresta a diventare il più grande d’Italia, include molti laboratori di robotica 4.0 ed un incubatore di impresa che, nei primi 2-3 anni di funzionamento, ha già dato il via a 150 nuove aziende tecnologiche, con l’obiettivo di mettere in moto in Campania un processo capace di puntare all’innovazione ed alle start-up capace di rendere l’area un polo strategico per lo sviluppo. Il vero punto forte della riapertura del nuovo museo sarà inizialmente quello della mostra “Corporea” nella quale i visitatori vivranno un viaggio nella macchina perfetta del nostro organismo per imparare e conoscere attraverso la sperimentazione ed il divertimento: sugli oltre 5000  metri quadrati della Città, divisi su tre livelli, si trovano, infatti, 14 isole tematiche legate ai diversi apparati del corpo umano in cui attraverso esposizioni, esperienze di realtà virtuale, video immersivi, macroinstallazioni e postazioni interattive i grandi, ma specialmente i più piccoli , potranno coniugare conoscenza, educazione e divertimento. La particolarità unica di Corporea è quella di integrare il linguaggio espositivo tradizionale con prestiti da musei e collezioni antiche, con esperimenti “hands-on” introducendo il mondo dei Fab Lab e dei “Makers” come esperimento da vivere in diretta: si entra così, per esempio, nelle cavità più recondite del corpo, camminando nelle vene e nelle arterie, e si sbuca nelle vie biliari. Giochi, laboratori e sperimentazioni per un approccio diverso e sicuramente interessante alla scienza, che sicuramente saranno utili per far crescere l’interesse di tante persone verso qualcosa di unico e magico com’è il nostro corpo umano. “Il museo del corpo umano – afferma, infatti, Vittorio Silvestrini, fondatore e presidente di Città della Scienza – ha l’obiettivo di aiutare a governare e trattare nel modo giusto il grande tesoro che ci viene dato con la vita. ‘Corporea’ è il primo museo interattivo in Europa interamente dedicato al tema della salute, delle scienze e tecnologie biomedicali e della prevenzione, basato sulla sperimentazione diretta dei fenomeni da parte dei visitatori”.

Il più grande ed avanzato planetario 3D d’Italia, come viene pubblicizzato il “Dome/3D”, offrirà, invece, 120 posti a sedere all’interno di una stanza da 20 metri di diametro. Di ultima generazione, e tra le più avanzate al mondo, sarà la macchina che aprirà lo sguardo attraverso il cosmo infinito grazie alla speciale collocazione della cupola che garantisce un effetto di completo coinvolgimento dello spettatore anche grazie ad un’acustica che garantirà al pubblico uno spettacolo dell’universo unico ed avvolgente. Non mancheranno, inoltre, spettacoli e filmati che ci aiuteranno a scoprire i vari, ed aggiungo affascinanti, segreti dell’universo: dalle vecchie missioni spaziali, al ruolo della materia oscura nell’Universo, passando dalle teorie degli antichi astronomi Greci sulle stelle a come proteggere i cieli stellati dall’inquinamento luminoso. Dal viaggio all’interno del Corpo Umano, fino a quello interstellare, dai segreti infinitamente piccoli del corpo umano, a quelli vasti e in gran parte ancora non sondati dell'universo che scorgiamo alzando gli occhi: la conoscenza non è mai abbastanza e non si ferma mai. Prima dell’incendio la Città della Scienza aveva circa 350 mila visitatori annuali, l’obiettivo a detta degli organizzatori, una volta completati totalmente i lavori (previsti per il 2020), sarebbe quello di incrementare ad oltre 500 mila il numero di questi appassionati di scienza e se le cose andranno come previsto, come mi auguro fortemente, non mi sorprenderebbe che certi risultati siano non solo raggiunti ma superati. L’obiettivo della Città con le sue caratteristiche peculiari, sia di museo sia di incubatore di start-up, è di guardare al futuro affinché non si crei solo un luogo per la memoria del passato, ma si invitino le persone a pensare e creare per un futuro migliore.

Gianluca Cimini

]]>
Wed, 12 Apr 2017 23:44:37 +0000 http://www.gianlucacimini.it/mc/515/1/il-fuoco-non-ferma-la-cultura-a-napoli-riapre-la-citta-della-scienza---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Consumo critico e ricerca del pezzo unico: il boom della circular economy - di Gianluca Cimini http://www.gianlucacimini.it/mc/514/1/consumo-critico-e-ricerca-del-pezzo-unico-il-boom-della-circular-economy---di-gianluca-cimini

Grazie al fiorire dei portali online dedicati alla compravendita dell’usato, il mercato dei prodotti di seconda mano si continua ad affermare come uno dei più vivi ed importanti del paese, capace di muovere più di 19 miliardi di euro e di contribuire al PIL Nazionale con una percentuale vicina all’1,1%, in crescita di un miliardo di euro rispetto al 2015. I dati che ho appena esposto derivano da una ricerca Doxa commissionata dal famoso portale subito.it (l’azienda del settore più 'cliccata' in assoluto, con oltre 8 milioni di utenti unici mensili) che ci chiarisce il successo crescente di questa economia dell’usato, legata non solo, in parte, alla crisi economica del momento, ma anche ad una nuova concezione dei beni di consumo collegata ad un consumo più critico ed alla ricerca di pezzi unici e non commerciali. Le grandi piattaforme tecnologiche come ebay e subito, tanto per citare le maggiori, ma ne esistono di tutti i tipi e categorie, hanno aiutato a far crescere il mercato dell’usato come mai era stato possibile prima d’ora: è sul web, infatti, che gli italiani hanno dimostrato di avere un approccio più dinamico agli scambi delle merci di 'seconda mano' rispetto agli ambiti tradizionali come le concessionarie o i mercatini. Comprare e vendere prodotti usati è diventato così quasi uno stile di vita, per un consumo più responsabile che dà valore ai singoli oggetti e per la ricerca, come dicevo, di prodotti particolari e non in commercio attraverso i normali grandi magazzini.

Secondo il cosiddetto modello qui adottato della “circular economy” il consumatore riveste un ruolo più centrale e più consapevole nella vita di un bene, sentendosi responsabile dal momento del suo acquisto fino a quello del suo smaltimento, allungandone così alla fine anche il ciclo di vita grazie al riuso. L’economia circolare tende, infatti, ad interrompere il classico ciclo “acquisto-consumo-smaltimento” ponendo, invece, l’attenzione sul valore del prodotto e sul suo uso protratto nel tempo attraverso una maggiore cura ed una seconda vendita come prodotto usato ad un prezzo vantaggioso per il secondo acquirente. Grazie al boom degli smartphone questi acquisti oggi si fanno sempre di più in mobilità grazie alla possibilità di cercare prodotti che ci interessano a partire non solo dal prezzo e dallo stato del prodotto, ma anche dalla geo-localizzazione del bene messo in vendita, e così gli utenti, di tutte le età, ma specialmente i giovani, vivono con naturalezza l’acquisto e la vendita di prodotti usati online cercando così di togliersi qualche sfizio o di seguire magari l’oggetto tecnologico del momento mettendo in vendita il modello precedente già posseduto.

La componente digitale della “second hand economy" è, come facilmente immaginabile, molto rilevante. E così dalla ricerca emerge che il 47% della popolazione italiana maggiorenne ha acquistato o venduto oggetti usati, la maggior parte di questi proprio grazie al fiorire delle piattaforme di compravendita online che valgono circa 7,1 miliardi di euro (ossia 300 milioni in più rispetto al 2015). I prodotti più ricercati e venduti fanno parte del settore dei motori, seguito dai prodotti per la casa e per la persona, dall’elettronica ed, infine, dal settore degli sport e degli hobby. Ogni italiano che sfrutta la cosiddetta economia di seconda mano di media, a fine anno, risparmia circa 900 euro che spesso vanno poi resinvestiti in altre spese, secondo il trend del momento, non per prodotti ma per esperienze, la spesa “esperienziale” è, infatti, in forte crescita.

“La terza edizione dell’Osservatorio Second Hand Economy per Subito evidenzia come la popolazione italiana sia costantemente interessata a comprare e vendere usato in particolare online”, commenta Guido Argieri, Customer Interaction & Monitoring, Head of Department di DOXA. “La progressiva digitalizzazione del Paese e un uso sempre maggiore di smartphone e tablet stanno progressivamente riducendo l’acquisto e la vendita di beni in mercati e negozi dell’usato a favore delle piattaforme digitali generaliste e verticali”.

Quella della “Second Hand Economy” non è, quindi, una moda passeggera, ma vuole imporsi come una radicale trasformazione del nostro modo di intendere produzione, consumo e quindi benessere, non solo per risparmiare, ma anche per vivere il prodotto con una concezione diversa, con un approccio etico e ambientalista. Come più volte è stato denunciato dal WWF: l’uso efficiente delle materie prime è una delle sfide cruciali del nostro tempo, dal momento che ogni anno utilizziamo risorse pari a quelle di 1,6 pianeta Terra. Troppe, a mio avviso, considerando specialmente che la domanda delle nostre economie non cessa di aumentare. Proprio per questo pensare ad un’alternativa all’economia che abbiamo vissuto fino ad oggi è doveroso e auspicabile. La difesa della natura e la riduzione dell’impatto ambientale della produzione industriale possono avere un significato positivo anche per la crescita e lo sviluppo. In natura non esistono discariche, ma i materiali vanno e vengono trasformandosi secondo il normale ciclo della vita, in un sistema circolare che si presenta e ripresenta da centinaia di anni sempre allo stesso modo. L’approccio lineare utilizzato dagli esseri umani, invece, si basa sull’utilizzo e la trasformazione delle materie prime fino all’eventuale disuso che porta, quindi, ad intaccare ogni eventuale risorsa naturale che non è infinita. Un sistema che nel lungo periodo non può durare in eterno. Trasformare i prodotti di oggi nelle risorse del futuro è l’auspicio dell’economia del futuro.

L’economia circolare fa proprio questo, ossia si pone come un modello produttivo che ambisce a una riduzione significativa dei prodotti di scarto, da riutilizzare piuttosto nel ciclo economico. È un affare non solo per il Paese, ma anche per i cittadini e l’ambiente. Che si pensi, quindi, se già non lo si sta facendo, ad un approccio diverso alle nostre spese future cercando di superare la vecchia, e non più sostenibile, logica del “prendi, produci, usa e getta”. Siamo ancora in grado di farlo, prima che sia troppo tardi.

Gianluca Cimini

]]>
Tue, 11 Apr 2017 11:09:36 +0000 http://www.gianlucacimini.it/mc/514/1/consumo-critico-e-ricerca-del-pezzo-unico-il-boom-della-circular-economy---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Inizia l’era del riciclo spaziale, il lancio di Space X è stato un successo http://www.gianlucacimini.it/mc/513/1/inizia-l-era-del-riciclo-spaziale-il-lancio-di-space-x-e-stato-un-successo

Florida, 30 marzo 2017, 23:27 ora italiana, Kennedy Space Center. Quel genio istrionico e visionario di Elon Musk non smette di far parlare di sé dando inizio in un colpo solo all’era del “riciclo spaziale”. La Space X, l’azienda spaziale privata di Musk, per la prima volta al mondo, ha, infatti, fatto decollare con successo, come se fosse un normale aeromobile, un razzo spaziale “di seconda mano”: il Falcon 9 portandolo nuovamente nello spazio. Perché nuovamente? perché quel razzo era già stato utilizzato per un volo spaziale e il risultato storico raggiunto con successo apre uno scenario nuovo per l’esplorazione spaziale nel quale, negli anni a venire, si potranno abbattere i costi dei futuri progetti grazie all’utilizzo di razzi che avevano già compiuto la loro missione spaziale iniziale. Dopo 11 mesi dalla sua ultima missione, quindi, il Falcon 9 ritorna in orbita, operativo al momento in cui vi scrivo, un satellite per Tlc della società lussemburghese Ses sta orbitando sopra l’equatore trasmettendo segnali televisivi verso l’America meridionale grazie al modulo “riciclato” di Space X. Con queste parole Elon Musk apre effettivamente l’era del riciclo spaziale: “Penso sia un giorno importante nella storia delle missioni spaziali. È possibile far volare più volte un lanciatore orbitale, che è la parte più costosa del razzo. Un risultato che costituisce, auspicabilmente, una grande rivoluzione per il volo spaziale”.

Per la precisione non tutto il Falcon 9 originale sta volando sopra di noi, ma una grande parte di esso: i motori sono rimasti gli stessi, ma ogni componente ausiliario per il quale sussisteva anche il minimo dubbio in fatto di sicurezza, assicura Musk, è stato sostituito. Il primo stadio del razzo era già stato utilizzato in una precedente missione lo scorso aprile e poi recuperato grazie al sistema di atterraggio controllato. Il primo stadio, alto 41 metri, si è sganciato dal resto del lanciatore 2 minuti e 41 secondi dopo il decollo, prima di iniziare una discesa controllata con i retro-razzi per adagiarsi dolcemente su una piattaforma galleggiante sull'Oceano Atlantico, 8 minuti e 32 secondi dopo il lancio. La possibilità di riutilizzare i propri razzi è sempre stata una priorità per SpaceX, per ridurre sensibilmente i costi di ogni missione, offrire prezzi più bassi alle aziende che vogliono portare in orbita i loro satelliti e rendere più frequenti i lanci. L’obiettivo, ora, per l’azienda privata è quello di aumentare il più possibile la velocità di riciclo e minimizzare il numero di pezzi da sostituire completamente così da riuscire ad abbattere ancora di più i costi per i futuri progetti spaziali, in programma solo per quest’anno, infatti, ci sono altri sei razzi da lanciare. E l’obiettivo è quello di arrivare un giorno a creare razzi in grado di essere utilizzati e riutilizzati il più velocemente possibile e con una manutenzione minima in grado di eliminare la sostituzione di alcun pezzo e di rendere i razzi così veloci ed efficienti da essere utilizzati e lanciati in poco meno di 24 ore. Praticamente come un aereo qualsiasi.

La maggior parte dei lanciatori spaziali (come quello di SpaceX) è formata da alcuni cilindri uniti tra loro, i diversi “stadi”: ognuno è dotato di motori e carburante per spingere il razzo e fargli vincere la forza di gravità terrestre; quando il primo stadio termina il suo compito, si stacca e si attiva il secondo stadio e così via. Nel caso del Falcon 9 due sono gli stadi utilizzati: il primo, formato da 9 motori Merlin ed in grado di produrre una spinta pari a quella di cinque Boeing 747 sommati insieme, era stato usato nel lancio dell'aprile 2016 della capsula Dragon verso la Stazione Spaziale Internazionale, in una missione di rifornimento, ed era stato recuperato dopo l'atterraggio sulla terra; nel secondo stadio troviamo, invece, un solo motore che si attiva quando ormai il razzo ha superato l’atmosfera terrestre e serve a dargli la spinta giusta per posizionarlo nell’orbita stabilita. Fino ad oggi, però, questi “stadi” una volta che finivano la loro funzione tendevano a tornare verso la Terra disintegrandosi a causa dell’atmosfera e mandando in cenere così anche motori e tecnologia che valgono alcune centinaia di milioni di dollari per ogni lancio effettuato. Di solito per il trasporto in orbita di un satellite SpaceX chiede come cifra di partenza 60 milioni di dollari, una volta che entrerà a pieno regime il sistema di riutilizzo dei razzi, il prezzo calerà, secondo le previsioni dell’azienda, di circa il 30 per cento. Complessivamente, SpaceX ha finora effettuato 14 tentativi di recupero dei propri lanciatori dopo aver rilasciato il carico utile, di essi nove andati a buon fine, compreso quello appena effettuato, non sono tutti, ma la media è alta, considerato che parliamo di un progetto sperimentale.

Space X è entrata così nella storia per essere stata la prima azienda al mondo, quando tutti dicevano che sarebbe stato impossibile, ad avere portato a termine con successo la consegna di un satellite in orbita geostazionaria con un razzo riutilizzato (il primo stadio), atterrando in verticale per la seconda volta sulla piattaforma galleggiante. L’impresa di Space X non vuole essere la conclusione di un progetto lungo e pieno di difficoltà durato 15 anni ma, piuttosto, l’inizio di una nuova era. La sfida per il futuro è quella, infatti, grazie al notevole abbattimento dei costi, di far diventare ordinari i lanci spaziali, gli atterraggi e le ripartenze dei razzi, a costi inferiori e con tempi molto ristretti rispetto a quelli che sono stati fino ad oggi gli standard della materia. Considerando che i prossimi progetti di Musk si basano su una missione privata intorno alla Luna per due suoi clienti ed un piano a lungo termine molto ambizioso e controverso per colonizzare Marte, non passerà molto prima che il visionario miliardario torni alla ribalta dei media a suon di nuovi traguardi raggiunti.

Gianluca Cimini

]]>
Sun, 9 Apr 2017 17:00:38 +0000 http://www.gianlucacimini.it/mc/513/1/inizia-l-era-del-riciclo-spaziale-il-lancio-di-space-x-e-stato-un-successo gianlucacimini2016@gmail.com (Gianluca Cimini)
Fact Checking - verificare le fonti costantemente contro la disinformazione - di Gianluca CImini http://www.gianlucacimini.it/mc/512/1/fact-checking---verificare-le-fonti-costantemente-contro-la-disinformazione---di-gianluca-cimini

Non soffermarsi mai alla superficie, ma andare sempre in fondo alle notizie controllando l’autorevolezza delle fonti per combattere la disinformazione dilagante. Le “Fake News” ossia le notizie false, sia create ad hoc a scopo di ironizzare su fatti e personaggi famosi, sia create proprio con l’obiettivo di manipolare l’informazione, sono, purtroppo, non solo un elemento distorsivo per una corretta conoscenza della realtà, ma possono anche manipolare il mercato e minacciare la stabilità sociale. Non è un caso, quindi, che proprio dopo il primo aprile, famoso per i cosiddetti “pesci” e false informazioni che si diffondono da sempre per questa giornata, sia stata scelta la data del giorno successivo, ossia il due aprile, per celebrare a livello mondiale “l’International Fact-Checking Day”, ossia la giornata internazionale contro le bufale online. L’iniziativa nacque a Buenos Aires lo scorso anno, promossa dal progetto “PolitiFact”, nato in Florida per verificare le dichiarazioni di presidenti, politici e lobbisti americani durante le passate elezioni. Obiettivo della giornata: riaffermare la necessità di fatti solidi e di argomentazioni fondate in politica, nel giornalismo e nella vita di ogni giorno.

In tempi di “fake news” e di bufale, a mio avviso, è fondamentale riuscire ad imparare a farsi uno sguardo critico su tutto quello che troviamo in rete dove ognuno è libero di esprimere il suo parere, ma allo stesso tempo anche di inventare fatti falsi; la verifica delle notizie, così come ricordavano alcuni miei amici giornalisti, deve essere sempre una delle basi fondamentali per dare attendibilità ad una notizia. E combattere la disinformazione in tutte le sue forme è qualcosa che non possiamo più rimandare. Conosco personalmente persone, anche considerate amiche, che hanno il brutto vizio, a volte, di dar risalto sui social a notizie che girano su internet con troppa facilità, dando per scontato che tutto quello che vi si trova abbia un briciolo di verità. Bene, vi assicuro che non è così. E molti approfittano di questi casi proprio per rendere virali certe notizie, anche se spesso non sempre sono veritiere, ma possono “fare comodo” per manipolare l’opinione pubblica secondo determinate direttive. Purtroppo certe notizie false si possono diffondere viralmente e velocemente, come dei virus, riuscendo a manipolare alla fine completamente la verità dei fatti.

Il fenomeno, da sempre esistito, ha avuto un boom proprio durante la scorsa campagna elettorale USA, proprio in quel periodo due delle piattaforme online di maggior diffusione, ossia Google e Facebook, sono finite nel mirino perché, a detta di alcuni osservatori, hanno agevolato la diffusione su internet di certe notizie che potrebbero aver influenzato il voto degli Americani. Ma anche blog e siti istituzionali non ne sono completamente esenti. Proprio per questo di recente sono nati diversi progetti ed iniziative volti ad arginare questo fenomeno ed a filtrare le notizie consentendo agli utenti di poter segnalare, una volta identificate, quelle inventate. Il fenomeno è tanto preoccupante quanto diffuso, secondo un sondaggio del Pew Research Center, nel quale emerge che almeno un americano su quattro, in modo consapevole oppure no, ha condiviso online notizie false, mentre quasi due terzi dichiarano che le cosiddette “bufale” creano parecchia confusione sui fatti di attualità. E non sempre è facile riconoscere le notizie false per un occhio non preparato a farlo.

C’è un solo modo per risolvere il problema: possedere il giusto occhio critico e un bagaglio di competenze necessarie per “smascherare” una news falsa a prescindere dallo scopo per cui è stata realizzata, senza dimenticare mai che il fenomeno esiste ed è largamente diffuso. Riuscire ad arginare il fenomeno dando agli utenti i modi e le conoscenze per diventare fruitori consapevoli di quello che il mondo dell’informazione può generare, riuscendo alla fine a far diventare tutti critici e capaci di distinguere la verità dalle notizie false create ad arte, è quello che si augurano tutti, da me, agli organizzatori dell’evento in tutto il mondo. La quantità enorme di fake news, infatti, fa sì che, nel mare magnum di Internet, ormai sia impossibile distinguere le bufale dalla verità: dalle petizioni online, alle catene di Sant’Antonio, passando per gli annunci trappola e le news costruite ad hoc per promuovere certi prodotti o per screditare qualcuno. Un piccolo, ma facile, consiglio che voglio dare personalmente è quello di controllare sempre da dove nasce la notizia. Mi riferisco all’indirizzo internet del sito, all’URL specifico che diffonde la news. Questo perché, mentre molti siti che creano “fake news” lo fanno in maniera chiara e con lo scopo di ironizzare o scherzare su determinati eventi, ci sono siti più “subdoli” che, invece, utilizzano URL molto simili a quelli di importanti testate giornalistiche o siti di informazioni nazionali od internazionali a cui, però, aggiungono anche solo una lettera che un occhio inesperto o distratto, di fronte alla gigantesca mole di siti in cui naviga ogni giorno o che si trova condivisa sui propri social da amici o parenti, possono sfuggire ed essere visti, quindi , come notizie autorevoli poiché scritte da fonti attendibili quando, invece, sono proprio il contrario. Bisognerebbe, poi, imparare a risalire sempre alla fonte primaria da cui nasce la notizia, verificandone se possibile anche la data di pubblicazione e la località. Un altro modo che vi consiglio per imparare a valutare ogni notizia è quello di seguire una breve ed interessante lezione sulle “fake news” direttamente sul sito della Polynter Institute, ossia la prestigiosa scuola di giornalismo situata in Florida che è promotrice dell’evento. Il consiglio finale, non meno importante, è quello di prendersi qualche secondo prima di cliccare sul tasto “condividi”  una notizia, rileggerla, valutarla attentamente, perché il diffondersi di una bufala parte, in primis , anche da noi che possiamo diventare inconsapevolmente parte di una catena che poi è difficile interrompere e che troverà, anzi, amici, colleghi e conoscenti che, fidandosi di noi, prenderanno anche loro quella notizia come veritiera facendo il nostro stesso errore. Concludo riprendendo lo slogan dell’evento: “Non farti ingannare, i fatti contano”.

Gianluca Cimini

]]>
Thu, 6 Apr 2017 18:59:27 +0000 http://www.gianlucacimini.it/mc/512/1/fact-checking---verificare-le-fonti-costantemente-contro-la-disinformazione---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Report 2016 sulla minaccia cybernetica in Italia e cosa ci aspetta per il futuro - di Gianluca Cimini http://www.gianlucacimini.it/mc/511/1/report-2016-sulla-minaccia-cybernetica-in-italia-e-cosa-ci-aspetta-per-il-futuro---di-gianluca-cimini

Si è concluso da poco questo 2016, un anno che gli esperti di cybersecurity hanno indicato come “l’annus horribilis” per l’Italia per quanto ha riguardato gli attacchi informatici, e considerando quello che è successo nei passati 12 mesi, l’anno già iniziato non preannuncia niente di nuovo, proprio per questo, forse, è il momento di analizzare il problema con dati precisi per preparare e migliorare le strategie future. Pubblici o privati, nessuno è uscito incolume da questo anno di attacchi cybernetici che hanno colpito target differenti con modalità e finalità variabili da caso a caso.

Secondo l’annuale Relazione sulla politica dell'informazione per la sicurezza, realizzata a cura del DIS (Dipartimento delle informazioni per la sicurezza) e presentata il 27 febbraio dal presidente del Consiglio Gentiloni e dal direttore generale del Dis Alessandro Pansa, è risultato, infatti, un preoccupante e costante trend di crescita in “termini di sofisticazione, pervasività e persistenza a fronte di un livello non sempre adeguato di consapevolezza in merito ai rischi e di potenziamento dei presidi di sicurezza” per quanto riguarda tutti i fenomeni di minaccia collegati al cyberspace. Questo significa che, da una parte, gli hacker stanno diventando ancora più pericolosi e, dall’altra, che questo problema non è ancora stato ben compreso da molte piattaforme che tardano ad adottare sistemi di sicurezza più efficienti per risolvere le tante falle di sistema e vulnerabilità varia che molti siti web, sia istituzionali sia privati, presentano e necessitano di revisione ed attenzione anche perché tali servizi possono occuparsi anche di servizi essenziali e strategici che potrebbero mettere a rischio anche la sicurezza nazionale in caso di un attacco hacker più “sofisticato e pervasivo”. In quest’anno sono cambiati, inoltre, sia il tipo di attacchi perpetrati maggiormente, sia i target che hanno subito tali attacchi. Se il 2015 è stato l’anno dei malware, il successivo 2016 ha visto, invece, una contrazione importante del fenomeno e la nascita di nuove tipologie di attività ostili, un dato che fa riflettere, comunque, non sull’effettiva riduzione della pericolosità della minaccia, ma sulla consistenza numerica e sull' estrema persistenza. Rimane stabile, pur registrando un aumento, il divario tra le minacce contro i soggetti pubblici, che costituiscono la maggioranza degli attacchi (ossia il 71%) e quelli diretti verso soggetti privati (che costituiscono il 27%), per quanto comunque, a mio avviso, sia non sempre facile per i soggetti privati notificare gli attacchi subiti, dal momento che molti di questi non vengono neanche avvertiti come tali. In relazione ai target privati sono però cambiati i target preferiti dagli hacker: scendono in questa particolare classifica, gli attacchi verso i settori operanti nella difesa, nelle telecomunicazioni, nell’aerospazio e nell’energia, per aumentare invece rispetto al 2015 e salire al primo posto, il settore bancario seguito dalle agenzie di stampa, le testate giornalistiche, le associazioni industriali e la new entry del settore farmaceutico. In parallelo allo spionaggio tradizionale, lo spionaggio informatico è diventato un capitolo molto importante, e chissà quanto remunerativo, negli attacchi degli hacker sia verso Istituzioni pubbliche sia verso imprese private, da una parte per ottenere informazioni utili a comprendere strategie e posizionamento del Paese sugli eventi geo-politici di interesse principale, e dall’altra con finalità di acquisizione di know-how ed informazioni industriali e commerciali. Minare la reputazione esistente del concorrente commerciale ed allo stesso tempo riuscire ad immagazzinare più informazioni possibili sui suoi obiettivi, è stato quello che hanno fatto gli hacker in questi mesi rivolgendosi non solo alle grandi aziende, ma anche ai singoli individui ritenuti di particolare interesse in ragione dell’attività professionale svolta e delle informazioni cui hanno accesso. Utilizzando tecniche di ingegneria sociale, ed espedienti sempre nuovi, gli hacker hanno così cercato di catturare informazioni sensibili come credenziali di accesso ai sistemi informatici aziendali. Sono i gruppi hacktivisti (con il 52% delle minacce cyber) la minaccia più rilevante , in termini percentuali, per il nostro paese, benché “la valenza del suo impatto sia inversamente proporzionale rispetto al livello quantitativo riferito ai gruppi di cyber-espionage, più pericolosi anche se percentualmente meno rappresentativi (19%).” La minaccia terroristica nel mondo informatico si occupa di attività quali proselitismo, reclutamento e finanziamento mentre le attività ostili in danno di infrastrutture IT sono consistite principalmente in attività di Web-defacement ossia quella pratica che consiste nel cambiare illecitamente la home page di un sito web (dal termine deturpare) all’insaputa di chi gestisce il sito. Ai gruppi islamisti è imputato il 6% degli attacchi cyber perpetrati in Italia nel corso del 2016.

La necessità di adeguare l’architettura informatica nazionale dei siti più sensibili, sia a livello pubblico sia privato, è l’obiettivo che mi auguro sia seguito, senza ulteriori perdite di tempo, durante questo anno, così da essere pronti ad affrontare le crescenti sfide che la sicurezza informatica richiede a livello nazionale ed internazionale. Stabilire e coordinare le linee d’azione per portare ad assicurare i necessari livelli di sicurezza dei sistemi e delle reti di interesse strategico, è compito sia del governo sia del Dipartimento delle informazioni per la sicurezza (DIS), il premier Gentiloni è stato chiaro a riguardo: "Sappiamo di essere in un mondo in cui si moltiplicano le cosiddette minacce asimmetriche, non c'è più tanto la minaccia tradizionale di eserciti stranieri alle porte, ma ci sono minacce di vario tipo che vengono dagli attacchi cyber e da molte altre questioni. A queste minacce non si risponde nell'illusione di potersi proteggere chiudendoci, ma si risponde accettando la sfida. Più sicurezza non vuol dire meno libertà, al contrario. Oggi avere più sicurezza è una condizione per continuare a vivere liberi, per continuare ad avere una società aperta, ispirata ai valori che abbiamo conquistato e che intendiamo difendere".

Gianluca Cimini

]]>
Mon, 3 Apr 2017 18:40:24 +0000 http://www.gianlucacimini.it/mc/511/1/report-2016-sulla-minaccia-cybernetica-in-italia-e-cosa-ci-aspetta-per-il-futuro---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Tra etica e rischi vari, è forse tempo di riscrivere le leggi delle robotica - di Gianluca Cimini http://www.gianlucacimini.it/mc/510/1/tra-etica-e-rischi-vari-e-forse-tempo-di-riscrivere-le-leggi-delle-robotica---di-gianluca-cimini

Astrofisici, inventori, imprenditori, filosofi e scienziati, si stanno interrogando e ponendo la stessa domanda da diverso tempo cercando di darsi al più presto una risposta e di porre magari le basi per una possibile regolamentazione futura sull’argomento, ossia: cosa accadrà quando l’etica umana verrà scombussolata da sistemi di intelligenza artificiale dotati di una serie di regole in contrasto con le nostre?

Tra apocalittici e integrati, le famose leggi della robotica create da Isaac Asimov a cui rispondono tutti i robot positronici (ossia dotati di un dispositivo immaginario ideato dallo stesso scrittore russo e chiamato cervello positronico, il quale può essere benissimo inteso come intelligenza artificiale) proprio ultimamente sembrano essere state violate per la prima volta nel mondo reale, ma, a dirla tutta, i robot in questione non hanno agito di propria iniziativa, ma seguendo algoritmi ed istruzioni precise e ben programmate. E così la prima legge che afferma che “Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno” e la seconda, ossia che “Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge” sono state superate. Il primo caso ha portato il robot russo “Promobot” a “fuggire spontaneamente” dal laboratorio in cui stava apprendendo gli algoritmi per il movimento automatico, ed a esplorare l’ambiente circostante in modo autonomo finché non è rimasto immobile, a batterie ormai scariche, in mezzo ad una strada paralizzando il traffico cittadino. Se sia stata una furba mossa di marketing o una dimenticanza accidentale, questo non saprei dirlo. Il caso successivo, però, fa ancora più pensare, e si tratta del primo robot pensato espressamente per danneggiare o ferire qualcuno dal momento che il braccio mobile armato di ago è stato realizzato per pungere con forza chi, tentando la sorte, avesse appoggiato il dito sull’apposito bersaglio. Il robot nasce come esperimento all’interno dell’Università di Berkeley proprio per far ragionare la gente su come affrontare i pericoli che potrebbero rappresentare i robot, ancor prima che si realizzino. “La grande preoccupazione sulle intelligenze artificiali è che possano andare fuori controllo. - afferma Alexander Reben, l’ingegnere dell'università di Berkeley esperto di interazione uomo-robot - I giganti della tecnologia affermano che siamo ben lontani da questo, ma pensiamoci prima che sia troppo tardi. Io sto provando che robot pericolosi possono esistere, dobbiamo assolutamente confrontarci sul tema. Le persone più disparate, esperti di legge, filosofia, ingegneria ed etica devono mettersi insieme per risolvere queste questioni, nessuno può farlo da solo”.

Il dibattito è acceso e l’allarme è stato lanciato sia da Stephen Hawking che da Elon Musk, che si sono detti molto preoccupati sui rischi legati all’evoluzione dell’intelligenza artificiale. E così i due, insieme a 892 ricercatori di AI o robotica e 1445 altri esperti del settore tecnologico hanno approvato un testo chiamato “Asilomar AI Principles” (Principi Asilomar per AI) composto da 23 principi-guida che dovrebbero volgere ad uno sviluppo dell’AI in un modo produttivo, etico e sicuro. Un testo iniziale e non completo il cui obiettivo ultimo è quello di “creare un’intelligenza della quale beneficiare e non un’intelligenza senza uno scopo” senza trascurare questioni fondamentali come la sicurezza, il bene comune, la responsabilità, la privacy, il controllo umano, i rischi di un’ eventuale corsa alle armi AI. In ambito militare, infatti, diverse nazioni stanno già sviluppando sistemi di armamenti robotici in grado di scegliere in maniera autonoma un obiettivo prioritario tra i diversi possibili ed abbatterlo. Simili armi smart, richiedono ancora l’autorizzazione di un operatore umano per portare a segno l’attacco, ma i rischi letali legati a questi armamenti autonomi non possono non destare preoccupazione già da ora. Dell’argomento si parlerà in maniera più approfondita a giugno durante la Conference on Uncertainty in Artificial Intelligence (UAI) cercando di mettere al bando, attraverso una petizione firmata già da oltre mille esperti del settore, eventuali “robot killer” in grado di combattere ed uccidere senza essere guidati dall’uomo.

Non è un caso che nella risoluzione del Parlamento europeo con il quale si richiede alla Commissione europea di iniziare a sviluppare norme per disciplinare l’ambito della robotica, si parli anche di mitologia e letteratura: da Frankenstein, a Pigmalione, al Golem di Praga, “gli uomini da sempre hanno fantasticato sulla possibilità di costruire macchine intelligenti, spesso androidi con caratteristiche umane” che siano funzionali agli scopi per cui sono state generate impedendo allo stesso modo che suddette macchine possano rivoltarsi contro i propri creatori. La risoluzione approvata il 13 febbraio dai deputati UE in materia di “Norme di diritto civile sulla robotica” insiste specialmente sulla creazione di uno status giuridico per i robot con la prospettiva di classificare gli automi come “persone elettroniche” responsabili delle proprie azioni. Una delle prime esperienze reali di AI, che probabilmente necessiterà a breve di regole scritte, potrebbe essere quella delle auto a guida autonoma. Sarà forse questo il campo di prova per capire effettivamente come affrontare la questione etica delle macchine pensanti: un’auto senza conducente sceglierebbe di colpire dei pedoni o deviare ed andare a sbattere danneggiando i propri passeggeri? Limitare i danni sembra la risposta più ovvia, ma a quale costo e, soprattutto, a chi andrebbe poi la colpa dell’accaduto, alla macchina o al programmatore? La questione è totalmente aperta. Le macchine, forse, arriveranno a possedere una propria etica leggendo e riordinando il mondo in modo tale che non dipenderanno più da come sono state originariamente programmate, saranno in questo caso però “libere” di evolversi autonomamente? Alla base, penso che le macchine dovrebbero essere istruite in maniera tale da non arrivare mai da sole a sciogliere questioni delicate e pericolose, il cosiddetto coding etico. “Serve un’etica dell’algoritmo e quell’etica va costruita attraverso un confronto esterno al mondo dei laboratori perché deve mettere appunto in chiaro delle soglie limite sull’utilizzo delle macchine. Dovranno essere soglie universali, che si applichino oltre la singola invenzione o scoperta”, l’affermazione è di Giovanni Boccia Artieri, sociologo e docente di internet studies all’università di Urbino. Le tre leggi della robotica stanno per essere messa a dura prova, oggi dalle auto senza conducenti, domani da un’intelligenza artificiale sempre più pervasiva. E anche per questo, dobbiamo saper agire e dare regole precise già da ora per il mondo che verrà: non cancellare le tre leggi ma implementarle con tutte le possibili implicazioni future.

Gianluca Cimini

]]>
Fri, 31 Mar 2017 19:15:46 +0000 http://www.gianlucacimini.it/mc/510/1/tra-etica-e-rischi-vari-e-forse-tempo-di-riscrivere-le-leggi-delle-robotica---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
L’evoluzione umana e l’intelligenza artificiale, tra scienza ed innovazione - di Gianluca Cimini http://www.gianlucacimini.it/mc/509/1/l-evoluzione-umana-e-l-intelligenza-artificiale-tra-scienza-ed-innovazione---di-gianluca-cimini

Dove non arriverà l’intelligenza umana potrà farlo quella artificiale, che si parli di fisica della materia o di meccanica quantistica il discorso non cambia, i nostri ricercatori all’estero sono sicuri che una rete neurale possa risolvere problemi che né gli scienziati, né i supercomputer più potenti al mondo riescono a sbrogliare. É già accaduto e sarà ancora più facile che accada in futuro. L’ultima sfida vinta dal silicio riguarda proprio i calcoli labirintici della meccanica quantistica, dove i computer, sdoganati da intuizioni e preconcetti possono davvero fare la differenza. E così su uno studio pubblicato sulla rivista scientifica “Science” scopriamo che un complesso problema di meccanica quantistica è stato risolto grazie all’intelligenza artificiale di uno dei più potenti calcolatori d’Europa, che si trova a Lugano al Centro svizzero di calcolo scientifico. Un modello di intelligenza artificiale opportunamente configurato per riuscire a gestire informazioni dettagliate sul comportamento dei singoli atomi cercando di capire dove si trovi ciascuno di essi durante l’esperimento attraverso calcoli così intricati da risultare impossibili da risolvere per una mente umana. Le reti neurali, invece, riescono a dimezzare il tempo necessario alle equazioni necessarie per risolvere i vari problemi di meccanica quantistica muovendosi con scioltezza in campi in cui la nostra mente si trova ad essere, invece, goffa e lenta. Dalla mole di dati da analizzare il primo passo per una rete neurale è quello di imparare a selezionare gli elementi utili e trascurare quelli irrilevanti. Il software deve prima di tutto, infatti, imparare a muoversi escogitando soluzioni adeguate e selezionando quelle più utili al problema. Ad oggi il rischio che l’intelligenza artificiale superi quella umana è ancora remoto, secondo Giuseppe Carleo, docente di Fisica presso il Politecnico Federale di Zurigo, che ha realizzato con successo l’esperimento appena descritto, ma il discorso potrebbe lentamente cambiare un giorno con l’avvento dei computer quantistici che saranno in grado di processare dati a velocità oggi impensabili.

Da “Science” a “Nature Physics” , dalla meccanica quantistica alla fisica della materia, ma con le stesse reti neurali standard dell’intelligenza artificiale e gli stessi successi. Perché, pur cambiando ambito, gli algoritmi di machine learning utilizzati da un’equipe di ricercatori del Perimeter Institute for Theoretical Physics per identificare le fasi della materia, spalancano un universo di possibili applicazioni. Avendo fornito al supercomputer dell’Università di Waterloo una quantità altissima di dati e di immagini provenienti da decenni di ricerca sperimentale e di simulazioni, la macchina ha imparato a distinguere tra i diversi stati della materia e a riconoscerne anche le transizioni da una fase all’altra. Magari non tutti saranno effettivamente interessati dal saper distinguere la fase ordinata di un ferro magnete dalla sua fase disordinata, ma il concetto fondamentale è che tale ricerca avrà un impatto pratico in moltissimi campi e discipline: dal concetto dell’entanglement quantistico all’analisi delle conformazioni delle proteine e del dna tanto per fare un esempio.

Sia che si tratti di interpretare masse di dati, sia che si tratti di analizzare fenomeni complessi, è l’incontro dell’Intelligenza Artificiale con le varie materie di studio scientifiche che può portare ad innovazioni che prima di oggi non sono state minimamente prese in considerazione. Questa è la mia visione del futuro, ma probabilmente non solo la mia, dal momento che i creatori di “Watson”, il sistema di Intelligenza Artificiale dell’IBM, quando parlano del loro super-cervellone a piattaforma cloud, lo descrivono come colui che porterà innovazioni importanti, che cambieranno la vita delle persone in futuro, appena la sua evoluzione gli permetterà di potenziare ancora di più le sua abilità che già oggi gli permettono di leggere ed interpretare dati complessi, interagire in modo naturale con le persone e imparare in modo più efficace. Sia che si parli di esseri umani, sia di computer, il dibattito sui temi dell’evoluzione e dell’intelligenza come empowerment delle capacità cognitive di rispondere al cambiamento e alla velocità del cambiamento stesso è sempre più acceso. E pensare che la parola “evoluzione” fu utilizzata da Darwin nel suo “Origine delle specie” solo nelle ultime edizioni. E tale evoluzione è maturata nei secoli anche grazie alla triplicazione della nostra capacità cranica fin ad un momento inatteso e straordinario che ha portato nella nostra vita degli “strumenti” realizzati per una finalità specifica, per risolvere un problema o per rispondere al cambiamento delle condizioni ambientali. Se poi ci troviamo, su una scala  temporale differente e su una velocità inversamente proporzionale alla dimensione, a fare un raffronto con l’evoluzione del silicio trasformato in transistor, non è un azzardo, a mio avviso, cominciare a considerare l’intelligenza artificiale come una tappa della nostra stessa trasformazione che ci sta portando verso un nuovo salto evolutivo. Dai primati che imparavano ad usare gli utensili elementari per procacciarsi il cibo siamo arrivati ai giovani nati dopo il duemila che usano lo smartphone con totale dimestichezza. C’è una relazione articolata tra soggetto e strumento che mostra che in realtà noi agiamo e pensiamo anche in funzione degli strumenti e delle macchine che usiamo per interfacciarci con il mondo e con i nostri simili.

Siamo di fronte, quindi, ad un progresso di miglioramento che segue un piano prestabilito di sviluppo. Le tecnologie in grado di adattarsi meglio all’ambiente sono anche quelle che riusciranno ad affermarsi nel futuro, e noi ci stiamo “evolvendo” anche così, passo dopo passo, studio dopo studio, con una nuova ed innovativa tecnologia alla volta. 

Gianluca Cimini

]]>
Mon, 27 Mar 2017 17:02:26 +0000 http://www.gianlucacimini.it/mc/509/1/l-evoluzione-umana-e-l-intelligenza-artificiale-tra-scienza-ed-innovazione---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Pubblicità online e software che tentano di bloccarla, un rapporto complicato - di Gianluca Cimini http://www.gianlucacimini.it/mc/508/1/pubblicita-online-e-software-che-tentano-di-bloccarla-un-rapporto-complicato---di-gianluca-cimini

Agli internauti non piace la pubblicità online. Punto. Sembra un dato di fatto considerando un recente rapporto di PageFair del 2016 che afferma che circa l’11% degli utenti di internet nel mondo ha usato questi software, che risultano installati su oltre 615 milioni di dispositivi diversi, tra smartphone, tablet e computer fissi (e con un aumento del 30% rispetto all’anno prima).

Ma come funziona e a cosa serve un software, come Adblock per esempio, amato dai navigatori, ma odiato dai siti web, che limita la pubblicità online durante la navigazione? Il software in questione nasce come “estensione” per i maggiori browser (Firefox, Chrome, Safari, Internet Explorer) ed una volta installato blocca qualsiasi tipo di elemento pubblicitario, come ad esempio pop-up, banner, gli annunci dei video di YouTube, la pubblicità su Google e molto altro, mettendo allo stesso tempo anche l’utente al riparo da spam, phising e malware che spesso si celano proprio dietro a questi banner. La maggior parte dei software in questione utilizza delle liste di riconoscimento in grado di intercettare gli indirizzi internet che contengono elementi pubblicitari e di bloccare la visualizzazione di questi ultimi nel momento in cui vengono caricati sul browser tramite javascript. Esistono liste predefinite all’interno dei software così come è possibile all’utente creare proprie regole personali per creare la propria “whitelist,” ossia un elenco di siti internet considerati sicuri e che non verranno bloccati in automatico. L’utente si ritrova così a usufruire di pagine web caricate più velocemente, grazie all’esclusione degli elementi pubblicitari dalle pagine, un consumo di banda più limitato e, di conseguenza, una maggiore durata della batteria del dispositivo (nel caso di smartphone o tablet dal momento che ormai esistono “applicazioni” apposite sia per Android, sia per iOs, che svolgono il lavoro di bloccare la pubblicità online). Vivere un’esperienza browsing più naturale possibile, togliendo di mezzo banner e fastidiosi pop-up, sempre secondo un report di PageFair, porta, però, gli investitori online alla perdita di decine di miliardi di dollari ogni anno per il mancato ingresso dei ricavi sugli annunci. D’altro canto il sito web, che guadagna proprio grazie alle pubblicità visualizzate sulle sue pagine dai vari internauti, perde la sua fonte di sostentamento primaria. E così la lotta tra pubblicità e software che la limitano è più aperta che mai.

Facebook e Adblock Plus, per esempio, si sono scontrati apertamente sull’argomento in una particolare botta e risposta dove l’uno cercava di sopraffare l’operato dell’altro a proprio vantaggio: per tutelare i grandi incassi generati dalle inserzioni il social network di Mark Zuckerberg ha reso i contenuti di Facebook pubblicati dagli utenti indistinguibili dai contenuti pubblicitari così da diventare più difficili da filtrare per gli “occhi” informatici degli adblocker. 48 ore dopo le difese di Facebook sono state nuovamente superate dall’estensione per browser “Adblock Plus” e la battaglia tra i due è ancora in corso. Nell’ultimo anno Google ha rivelato, nel suo rapporto periodico Bad Ads, di aver rimosso 1,7 miliardi di annunci pubblicitari legati specialmente alla promozione di prodotti illegali, al gioco d’azzardo e alle “tabloid cloaking”, ossia un nuovo tipo di annuncio ingannevole che si spaccia per notizia. Gli annunci hanno un ruolo vitale nella sostenibilità economica dell’open web e sono una fonte immensa di guadagno per piattaforme come Google o Facebook, ma spesso possono nascondere, come abbiamo visto, insidie pericolose, come nel caso degli annunci “trick to click” che compaiono come avvertimenti del sistema operativo del dispositivo, ma poi scaricano software malevolo. Ed in questi casi gli adblocker possono arginare in parte il problema, non è un caso, infatti, che l’utilizzo di questi software su pc desktop abbia raggiunto i 236 milioni di terminali, con una particolare crescita in particolare sui dispositivi mobili, 380 milioni di terminali, dove la pubblicità risulta ancora più fastidiosa. Il fenomeno ha ormai superato le nicchie degli appassionati di tecnologia ed è diventato globale: Google ha calcolato che ormai solo il 54% di tutti gli annunci sul web viene visualizzato, mentre su YouTube la percentuale sale al 91%.

Si blocca la pubblicità per ragioni diverse: perché abbiamo paura di minacce informatiche e virus, perché interrompe la nostra esperienza di navigazione, perché ci regala maggiore velocità nella navigazione. Mentre certe pubblicità si possono più facilmente tollerare, come nel caso di banner statici che magari collegandosi ai nostri cookie ci informano su offerte che ci interessano, quello che non sopporto sono proprio quei messaggi che non permettono di essere saltati o che partono in automatico durante la navigazione. Alcuni siti hanno quindi introdotto dei cosiddetti “adblock walls” che riescono a riconoscere se stiamo navigando con un blocco per gli annunci pubblicitari attivo ed in questi casi ci pregano di disabilitarlo prima di proseguire nella navigazione web. Nonostante la percentuale di utilizzazione dei vari software adblocker in aumento, il web advertising ha comunque archiviato il 2016 con una crescita dell’8,2% (così come riporta l’ultimo report Nielsen sul mercato degli investimenti pubblicitari) con la “ricerca online” e i “social media” a spingere la crescita della componente Internet nella pubblicità. E così si è arrivati al punto che le grandi aziende di informatica come Google, Microsoft, Amazon e simili, che operano tutte nel settore pubblicità, stiano facendo accordi economici proprio con AdBlock Plus, sfruttando la loro posizione in una “white list” capace di aggirare l’estensione e impedire di bloccare la pubblicità. Sembra quasi un paradosso la notizia, invece potrebbe aprire un compromesso adeguato tra utenti ed inserzionisti dal momento che bloccherà solo gli annunci ritenuti fastidiosi dagli utenti, i quali potranno comunque decidere di bloccare anche le cosiddette “pubblicità accettabili”. Mi viene lecito pensare quanto può “costare” ad un editore entrare in una determinata “white list” perché probabilmente proprio di questo si tratta, un accordo economico tra pubblicitari e software che hanno fatto la loro fortuna bloccando quello che adesso permettono, ma non a tutti. Mi preoccupa il fatto che un software come Adblock Plus diventi di fatto un gateway attraverso cui transiterà buona parte della pubblicità sul web e che questa venga filtrata secondo le sue linee guida. I dati analizzati fin qui sono sicuramente il chiaro esempio che esiste un problema importante tra navigatori ed inserzionisti; l’augurio per il bene di entrambi è che questa possa diventare un’occasione in più per mettere al centro il problema e magari ripensare in maniera diversa il marketing online attraverso forme pubblicitarie che siano meno invadenti possibile, ma rimangano funzionali alle aziende. L’advertising web si è evoluto nel tempo, dovrà continuare a farlo per rimanere al passo con i tempi. 

Gianluca Cimini

]]>
Fri, 24 Mar 2017 18:39:09 +0000 http://www.gianlucacimini.it/mc/508/1/pubblicita-online-e-software-che-tentano-di-bloccarla-un-rapporto-complicato---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Il lato oscuro dei droni: azioni militari, infiltrazioni e pericoli di hackeraggio - di Gianluca Cimini http://www.gianlucacimini.it/mc/507/1/il-lato-oscuro-dei-droni-azioni-militari-infiltrazioni-e-pericoli-di-hackeraggio---di-gianluca-cimini

Qualche giorno fa vedevo un vecchio film dove un piccolo drone veniva lanciato, armato di telecamera, all’inseguimento di un ricercato per le vie della città, si muoveva veloce senza ostacoli e riusciva a trovar il fuggitivo attraverso l’abbinamento di un software di riconoscimento facciale. Facile, fin troppo. Quello che, però, era soltanto un intermezzo di azione in un film di qualche anno fa su tecnologia e spionaggio è oggi realmente possibile grazie ai grandi passi che l’evoluzione dei droni sta compiendo, e non è neanche troppo difficile dotarsi di un dispositivo simile, basta scendere praticamente sotto il centro commerciale vicino casa e andare nel reparto informatica, proprio tra i computer e i videogame per ragazzi. Come ho già scritto in un precedente articolo le possibilità di utilizzo dei droni crescono in maniera esponenziale alla loro diffusione, sia a scopo ricreativo sia commerciale. Ma cosa succede se questi mezzi vengono presi di mira da hacker senza scrupoli o da persone che perseguono finalità criminali?

Secondo un’indagine effettuata nel 2015 dall’Enav, la società nazionale per l’assistenza al volo che si occupa del controllo del traffico aereo, in Italia sono stati venduti oltre 100 mila droni, ma con un tasso di vendita stimato di circa 300 mila unità il calcolo è presto fatto: nel 2020 saranno circa un milione il numero di droni in Italia. E la maggior parte di questi potrebbero essere a rischio di hackeraggio. Il “drone jacking” è il nome che si dà a questa nuova forma di sabotaggio informatico che permette agli hacker di prendere il controllo in remoto di un qualsiasi drone. I droni commerciali, infatti, vengono controllati in maniera remota attraverso uno smartphone o un controller apposito, che di solito si connette via bluetooth, via wifi o rete cellulare al velivolo tecnologico. Come tutti gli oggetti “connessi”, quindi, anche i droni sono soggetti che presentano particolari punti deboli dal momento che, per funzionare, necessitano di un invio di dati elettronici attraverso l’ambiente esterno e lo spettro elettromagnetico. Le informazioni che viaggiano nello spazio virtuale e che connettono controller e drone sono, quindi, a rischio di malintenzionati se non opportunamente protette, proprio per questo la questione della cyber security, così come in altri ambiti di nuovo utilizzo come quello dell’IoT, ossia dell’Internet delle cose, deve essere un prerequisito fondamentale per creare un valido strumento di dissuasione e difesa verso possibili attacchi informatici. A differenza di malware e virus, il drone jacking è potenzialmente più pericoloso. Tale attacco può mettere a repentaglio la privacy (entrando nella vita privata delle persone) e creare problemi, purtroppo, anche maggiori, dal momento che un hacker potrebbe non solo sottrarre le immagini e le informazioni raccolte dal drone, ma addirittura prendere direttamente il controllo del mezzo e da quel momento utilizzarlo per ogni possibile attività illecita, dal farlo precipitare ad utilizzarlo per scopi di natura terroristica.

Basandosi su dati reali e accertamenti ben precisi, l’allarme, infatti, parte dall’intelligence francese, scopriamo che la prossima minaccia terroristica dell’Isis, stia mettendo in conto l’uso di velivoli a controllo remoto, costruiti a basso costo, molto simili a quelli già in commercio, ma armati con ordigni capaci di uccidere. Niente di strano sul fattore offensivo, dal momento che, da anni, le maggiori potenze mondiali utilizzano droni a controllo remoto per azioni di guerra o spionaggio in territori ostili. La novità, dettata anche dall’espansione di questo nuovo mercato tecnologico, è che non si parla di centinaia di migliaia di euro per un drone militare specifico , ma di droni costruiti artigianalmente (con fusoliere di compensato ed ali di polistirolo) o commerciali a basso costo riadattati per scopi illeciti. Fonti curde nei mesi passati hanno confermato l’utilizzo da parte dei terroristi islamici per il controllo della città di Mosul di droni opportunamente modificati per azioni di bombardamento, di risposta le forze armate irachene hanno risposto con altrettanti droni da ricognizione. Ormai la guerra sembra combattersi anche così e la cosiddetta “guerra dei droni” apre, tristemente, scenari allarmanti anche nel campo della sicurezza dei centri urbani, anche europei, con un possibile utilizzo a “sciame”, ossia in gran numero, dei droni modificati. La minaccia è presa sul serio da autorità ed eserciti: il Pentagono ha stanziato circa 20 milioni di dollari per la ricerca, l’esercito iracheno si è munito di speciali fucili capaci di sparare onde radio in grado di interrompere i collegamenti del drone rendendolo inutilizzabile (i cosiddetti jammer), possibili interventi con elicotteri in Europa, così come soluzioni più “naturali” da parte dell’esercito francese che, come contromisura ai droni, addestra aquile per ghermire il modello di velivolo a controllo remoto.

Ritornando all’hacking, invece, secondo un report sulla sicurezza redatto dall’azienda di sicurezza informatica McAfee, i primi toolkit che consentiranno agli hacker di prendere il controllo dei droni attraverso software malevoli cominceranno a presentarsi già nel 2017 attraverso il dark web. Nella maggior parte dei casi per correggere le vulnerabilità software basterebbe un aggiornamento, ma fino ad oggi ben poco è stato fatto per quanto riguarda la sicurezza informatica di questi oggetti. A causa dello sviluppo tecnologico, infatti, lo scenario è in rapido mutamento e bisogna essere pronti a tutto. Quello tra i droni e i temi legati alla sicurezza è un conflitto ormai noto. E non solo in merito alle normative sugli oggetti in volo e la privacy. Il problema principale per i produttori è che ancora non esistono regole precise da seguire nella fase di progettazione. In futuro potranno, e dovranno, essere usate regole di crittografia del collegamento di controllo per evitare il dirottamento e misure per prevenire la manomissione via GPS. Gli esperti del settore della “cyber security” intendono per il futuro muoversi dal concetto di “cyber defence” a quello di “cyber resilience” attraverso l’utilizzo di sistemi che siano infatti “resilienti”, ovvero in grado di continuare ad operare in sicurezza anche qualora siano vittime di un attacco o comunque, di ‘autodistruggersi’ nei casi in cui ne sia compromesso il legittimo controllo. Proprio perché il fenomeno dei velivoli a pilotaggio remoto (APR) è un fenomeno dinamico ed in rapida evoluzione è necessario, a mio avviso ,che l’impegno da parte delle Istituzioni e dei produttori di droni sia altissimo in maniera tale da convogliare importanti risorse economiche proprio verso il settore che in questo campo è stato più trascurato, ossia quello della sicurezza cibernetica prima che i droni diventino la nuova frontiera dell’hacking mondiale.

Gianluca Cimini

]]>
Mon, 13 Mar 2017 17:58:49 +0000 http://www.gianlucacimini.it/mc/507/1/il-lato-oscuro-dei-droni-azioni-militari-infiltrazioni-e-pericoli-di-hackeraggio---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Commercio, trasporti e scopi umanitari: il lato "buono" dei droni - di Gianluca Cimini http://www.gianlucacimini.it/mc/506/1/commercio-trasporti-e-scopi-umanitari-il-lato-buono-dei-droni---di-gianluca-cimini

Utilizzati ormai in tutti gli scenari mondiali i droni sono usciti dall’ambiente militare in cui sono nati e si sono evoluti, per diventare sia giocattoli hi-tech per bambini, sia mezzi a dir poco fantascientifici dai mille scopi commerciali e civili.

Nati negli anni ’30 negli Stati Uniti come target per le esercitazioni militari, i velivoli a controllo remoto, caratterizzati dall’assenza del pilota umano a bordo, hanno cambiato nel tempo funzioni e caratteristiche. Il termine “drone” poi sembra derivare da una parte dalle caratteristiche che riguardano il rumore che il velivolo produce (in inglese antico il termine significava infatti “rimbombo”), dall’altra dalla metafora del fuco, il maschio dell’ape, e dalla sua tipica passività ricollegata alle specifiche di utilizzo del mezzo usato come bersaglio volante per le esercitazioni dell’aeronautica. Il tempo, però, ha voluto che tale passività dei droni subisse un riscatto vero e proprio, tali oggetti sono passati, infatti, prepotentemente dal ruolo di bersagli a veri e propri protagonisti dell’aviazione mondiale.

A fine dicembre, dopo tre anni di test in Europa, Amazon ha finalmente festeggiato la prima consegna di un pacco tramite un drone in Gran Bretagna. Il drone interessato, con guida da remoto via GPS, ha trasportato un pacco per alcuni chilometri depositandolo, infine, su un quadrato di 40 centimetri per lato con impressa una “A” che funge da “bersaglio” per l’APR (aeromobile a pilotaggio remoto) nel tempo record di 13 minuti.

Il problema futuro sarà capire, per il colosso dell’e-commerce, come abbracciare le norme che regolano il traffico aereo anche negli altri paesi che saranno coinvolti nei test, negli Stati Uniti, infatti, la Federal Aviation ha imposto regole stringenti sull’utilizzo dei droni commerciali che ad oggi ne vietano l’utilizzo per trasportare pacchi da remoto. Quegli stessi pacchi che, secondo un brevetto registrato da poco, in futuro potrebbero essere direttamente “paracadutati” dal drone per velocizzare il trasporto ed ottimizzare l’energia necessaria al velivolo per un eventuale atterraggio. Ma il sogno di Amazon di diventare leader nel mercato delle spedizioni non finisce così ed un altro brevetto, ancora più fantascientifico, parla di un vero e proprio centro di stoccaggio merci situato su un dirigibile che nei piani della società di e-commerce dovrà rifornire i droni di oggetti da consegnare con la capacità di spostarsi a suo piacimento nei punti strategici del globo seguendo i picchi delle richieste del mercato: uno “Zeppellin commerciale” era qualcosa a cui davvero non avevo mai pensato prima. Insomma Amazon pensa in grande riguardo a come migliorare il proprio servizio, ma non è l'unica azienda che nei droni vede una parte del business del futuro.

Da giugno 2017 Dubai diventerà la prima città al mondo con attivo un servizio di trasporto aereo individuale, il drone cinese EHang 184, infatti, non si occuperà dello spostamento di pacchi ma di persone: il velivolo autopilotato, in fibra di carbonio ed a alimentazione elettrica, aprirà così un nuovo settore commerciale con la possibilità di trasportare, nella sua prima versione, una persona dal peso massimo di 117 chili con valigetta annessa, con un’autonomia di circa mezz’ora ed un massimo di 50 chilometri. Al passeggero basterà salire a bordo del quadrirotore, allacciare le cinture e premere la destinazione sul display di bordo per iniziare a solcare i cieli ed evitare code automobilistiche e possibili congestioni stradali.

La flessibilità d’utilizzo offerta dai droni apre, comunque, tantissimi scenari di utilizzo. In Cina, per esempio, una compagnia di manutenzione della rete elettrica li utilizza, solo per fare un ulteriore esempio, per operare sulle linee ad alta tensione dove l’intervento umano risulterebbe più pericoloso e meno conveniente in termini di tempistiche, in questo caso dei speciali droni attrezzati con un lanciafiamme si occupano di pulire i cavi elettrici da oggetti di plastica come sacchetti ed altri tipi di spazzatura che ci si depositano. In Giappone più di 2.500 droni ad ala rotante si occupano invece di innaffiare le risaie, l’utilizzo agricolo di questa tecnologia è una delle applicazioni emergenti più in voga, sperimentazioni simili sono in corso anche in Italia per combattere i parassiti del mais, mentre una non violenta “Tomato Air Force” ad opera della Coldiretti Lombardia pattuglia le coltivazioni di pomodoro fra Cremona, Mantova e Brescia.

E così droni in aria, sistemi ottici a terra e sensori sui campi, attraverso una gestione integrata delle diverse tecnologie, portano l’agricoltura “di precisione” (anche detta agri-tech) a potenziare questo importante settore dell’economia italiana. I droni del futuro saranno ancora più performanti, piccoli ed affidabili ed alcuni di loro, realizzati per scopi particolari, potranno essere anche usa e getta, senza motore e biodegradabili. La realizzazione di questi particolari droni è legata al progetto “Icarus” ed è realizzato da la Darpa, l’agenzia del governo statunitense che lavora sui più evoluti progetti di difesa, con lo scopo umanitario di recapitare medicine in zone remote o isolate a causa di conflitti, calamità naturali o altre ragioni. Un’idea simile era già stata realizzata in ottobre dalla startup Zipline per la consegna di alcune sacche di sangue in Ruanda.

Nella mia ricerca sull’evoluzione dei droni, sempre a fini umanitari, mi sono imbattuto anche nel progetto “Sherpa” (realizzato dal DEI dell’Università di Bologna ed un gruppo di giovani ricercatori europei) un sistema di soccorso che combina l’azione dell’uomo a quella  di droni, robot ed aeromodelli per raggiungere luoghi colpiti dalla slavine in pochi minuti e localizzare i dispersi attraverso uno screening della zona colpita realizzato con foto delle aree interessate realizzate anche con telecamere ad infrarossi e la registrazione degli impulsi dei segnalatori che scalatori e sciatori esperti portano con sé. Ricordando che i primi droni autonomi quando fecero il loro esordio in campo militare presero il nome di “angeli della morte” è lecito immaginarsi che le cose stiano cambiando e che una tecnologia simile stia, fortunatamente, maturando in molte altre direzioni. 

Gianluca Cimini

]]>
Thu, 9 Mar 2017 20:55:27 +0000 http://www.gianlucacimini.it/mc/506/1/commercio-trasporti-e-scopi-umanitari-il-lato-buono-dei-droni---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Iniziative e consigli per vivere una rete migliore, arriva il Safer Internet Day - di Gianluca Cimini http://www.gianlucacimini.it/mc/505/1/iniziative-e-consigli-per-vivere-una-rete-migliore-arriva-il-safer-internet-day---di-gianluca-cimini

Nato come evento annuale ed organizzato da INSAFE e INHOPE con il supporto della Commissione Europea, il Safer Internet day (che si è svolto il 7 febbraio in oltre 100 paesi con il motto “Be the change; unite for a better internet”) è una giornata durante la quale ci si impegna a promuovere un uso più sicuro del web e delle nuove tecnologie. Ideato principalmente per bambini e giovani di tutto il mondo con l’obiettivo di metterli in guardia dalle minacce della rete e consegnare loro strumenti idonei alla difesa dai pericoli del web, non sono mancati in questa occasione consigli validi anche per genitori ed adulti affinché in loro si crei una vera e propria cultura della Rete.

“Fare del web un luogo migliore” è stato, quindi, il fine di questa giornata particolare nella quale i ragazzi hanno potuto scoprire non solo un uso più consapevole della rete , ma quanto sia importante essere responsabili e partecipare attivamente a rendere il web un luogo più positivo, più libero, più sicuro. Nella stessa giornata si è tenuta, inoltre, la Prima Giornata nazionale contro il bullismo e il cyberbullismo a scuola dal titolo "Un nodo blu - le scuole unite contro il bullismo". Il crescente fenomeno del cyberbullismo richiede, infatti, sempre più una maggiore consapevolezza sul corretto uso dei nuovi media digitali, in modo particolare se parliamo dei social network che così profondamente sono entrati nella vita di tutti noi, in special modo dei giovani e giovanissimi. Per contrastare un fenomeno di grande gravità come questo bisogna, a mio avviso, saper prevenire grazie ad uno sforzo congiunto messo in atto da insegnanti, familiari e mass media insieme. Insegnando ai giovani a non coltivare la cultura dell’odio trasformando quello che è un mezzo fondamentale d’informazione e socializzazione in uno strumento di attacco personale volto, purtroppo, contro i più deboli, spesso in giovanissima età, che si trovano emarginati e sotto accusa senza poter agire in loro difesa. Proprio perché certe azioni vengono vissute come “virtuali” senza attribuzioni di danni nel mondo “reale” , a volte i giovani non riescono a capire l’impatto delle proprie azioni in rete. C’è, purtroppo, l’incapacità di capire l’impatto che la comunicazione ha sull’altro. L’unica strada in questo caso, come consiglia anche il Garante dei minori, è quella della formazione e della sensibilizzazione, ed è proprio in giornate come questa che si può tornare a discutere in maniera più approfondita dei pericoli del mondo virtuale. E , purtroppo, da recenti ricerche dell’Università la Sapienza scopriamo oggi che l’82% dei ragazzi intervistati non considera grave insultare, ridicolizzare o rivolgere frasi aggressive sui social considerando che l’atto aggressivo verbale può essere considerato non grave o irrilevante poiché non dà luogo a violenza fisica diretta. Niente di più sbagliato.

Durante questa giornata di iniziative varie non si parla solo di cyberbullismo (fenomeno in gran parte sommerso, ma che sta giungendo all’attenzione dei media anche grazie alla nuova proposta del governo per contrastarlo che proprio in questi giorni è in via di discussione e approvazione alla Camera), ma anche di altri fenomeni sconosciuti ai più come il “grooming” (una subdola forma di adescamento online attraverso i social network), violazione delle norme sulla privacy, violazioni del diritto all’immagine, linguaggi aggressivi e tanti altri. Mondi esistenti, ma sconosciuti a genitori ed adulti che magari ne vengono a conoscenza solo quando ormai è troppo tardi.

Ci troviamo a diventare sempre più connessi, sempre più social, ma siamo a volte ignari delle nostre conseguenze ed azioni. I nostri dati vengono registrati mentre navighiamo, fingiamo di essere preoccupati, ma ormai abbiamo interiorizzato ed accettato l’idea che sia il giusto compromesso per poter accedere a servizi che ci interessano, quando spesso invece interessa più all’azienda conoscere i nostri movimenti, i nostri gusti, i nostri contatti. Fondamentale è anche, a mio avviso, la collaborazione dei vari social network con associazioni, forze dell’ordine, ministeri e garanti di infanzia e privacy per la tutela dei minori.Grazie anche agli altri argomenti affrontati durante questa importante giornata è stato messo in evidenza che, senza funzioni efficienti per la segnalazione di contenuti inappropriati o speciali task force che si occupino proprio dell’aumento dell’odio su internet o della propaganda di notizie palesemente false, la libertà di internet rischia di diventare anarchia. Un altro fattore importante quando si naviga, sempre più importante a mio avviso, come abbiamo scoperto in periodo di elezioni, perché può modificare idee ed opinioni, è  capire quanto le persone riescono a dare valore di verità o falsità alle notizie lette su internet, perché l’effetto” bufala” è dietro l’angolo e spesso rimbalza senza difficoltà da social a social, da profilo a profilo, portando così alla diffusione spesso incontrollata di informazioni erronee, incomplete o addirittura completamente false, portando così l’opinione pubblica meno attenta a prendere per vero quello scritto magari come scherzo senza immaginare i risvolti di un gesto così grave. Non basta, quindi, ad una notizia per essere attendibile che sia tra i primi risultati di ricerca dell’indice di Google, né bisogna prenderla come vera solo perché condivisa da persone o personaggi di cui ci fidiamo. Controllare sempre le fonti delle notizie così come cercare su internet lo stesso argomento trattato da siti differenti è fondamentale per farsi un giudizio il più possibile neutrale sull’accaduto, un discorso che vale anche per la carta stampata da sempre, ma che risulta ancora più articolato e difficile ora che i social network riescono a muovere opinioni e news a velocità prima impossibili grazie alla stampa tradizionale. E gli stessi adulti che dovrebbero esercitare un ruolo di guida in un contesto complesso e in continua evoluzione, come quello del mondo e delle tecnologie digitali, invece, spesso, hanno le stesse conoscenze dei ragazzi e gli stessi livelli di consapevolezza delle conseguenze dei loro comportamenti in rete.

Navigare in modo sicuro sul web non è un gioco da ragazzi, ma con le dovute accortezze è alla portata di tutti: c’è da imparare a gestire la password per ognuno dei tanti account, capire quando e se pubblicare un contenuto sui social network senza dimenticare di fare attenzione a potenziali attacchi hacker che possono giungere in ogni momento. Password efficaci, così come ci ricorda anche Google, sono il primo strumento di difesa contro i crimini informatici, è fondamentale, quindi, usare password diverse per ogni account, possibilmente lunghe e che utilizzino lettere, numeri e simboli. Esistono poi strumenti tecnologici per sentirsi più al sicuro come tecnologie anti-spam o avvisi che ci suggeriscono di non visitare alcuni siti poiché potrebbero contenere malware o truffe che usano il phising. Ognuno, dai grandi provider ai singoli utenti, deve fare la sua parte per rendere, insieme, internet un posto migliore.

Gianluca Cimini

]]>
Mon, 6 Mar 2017 20:37:09 +0000 http://www.gianlucacimini.it/mc/505/1/iniziative-e-consigli-per-vivere-una-rete-migliore-arriva-il-safer-internet-day---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Fuori dalla sua bozza teorica, il 2017 sarà l’anno del computer quantistico - di Gianluca Cimini http://www.gianlucacimini.it/mc/504/1/fuori-dalla-sua-bozza-teorica-il-2017-sara-l-anno-del-computer-quantistico---di-gianluca-cimini

Ne abbiamo sentito parlare per mesi e, finalmente, le più grandi aziende della tecnologia mondiale stanno spingendo forte in questo settore che, a detta degli esperti, potrà migliorare sensibilmente la vita di tutti i giorni: il computer quantistico durante il 2017 uscirà dalla sua bozza teorica e si trasformerà in qualcosa di tangibile e realmente funzionante. Molto più potente di qualsiasi computer mai concepito e dalla portata rivoluzionaria, la macchina inseguita da decenni ha finalmente un progetto preciso che porterà alla realizzazione entro due anni del primo prototipo funzionante: potente nelle prestazioni così come grande nelle dimensioni (si parla della grandezza di un campo di calcio) e nei costi (pari a circa 100 milioni di euro). Descritto sulla rivista Science Advances, il progetto si deve al gruppo coordinato da Winfried Hensinger, dell'università britannica del Sussex. Molto dipenderà dal numero di partner interessati al progetto e agli investimenti che si effettueranno per la realizzazione, ma, una volta finito il progetto, verrà alla luce un computer in grado di risolvere in poco tempo problemi che per un normale computer richiederebbero miliardi di anni e, con una tale potenza di calcolo, il mondo dell’industria, del commercio e della ricerca scientifica in primis potrebbe trovarsi di fronte ad una nuova rivoluzione.

Nell’ambito della ricerca pura si discute ormai da anni di calcolo quantistico con l’obiettivo di passare ad una sua applicazione concreta, non solo i grandi colossi dell’informatica come Google e Microsoft , ma anche numerosi laboratori di università e start-up stanno cercando di portare alla realtà un progetto così avveniristico. L’idea innovativa alla base è quella di sfruttare i tipici fenomeni della meccanica quantistica per creare una macchina in grado di elaborare informazioni ad una velocità impensabile per le moderne tecnologie. Fino ad oggi i nostri computer hanno codificato le informazioni tramite un’unità chiamata “bit” capace di assumere due valori (0 e 1) che, tramite lunghissime sequenze, vanno a formare i comandi ed i software che utilizziamo ogni giorno per i nostri scopi più vari. In un computer quantistico tali informazioni sono invece codificate tramite una versione quantica  dei bit ossia i “qubit” che possono assumere tre valori (0, 1 od entrambi). Grazie a due effetti tipici della meccanica quantistica, ossia la “sovrapposizione degli stati”, un qubit può trovarsi in una condizione in cui i due stati diversi si trovano sovrapposti, e “l’entanglement” in cui due particelle microscopiche diverse possono condividere lo stesso stato quantico pur trovandosi ad una grande distanza l’una dall’altra, si potrebbe avere un incremento esponenziale della velocità di calcolo. A differenza però del bit, rappresentato da un elemento o un componente capace di alternare due stati (come il voltaggio in un circuito o una sorgente luminosa) per il qubit è necessario ricorrere agli elettroni, ai fotoni o in più in generale lavorare a livello subatomico, con le comprensibili difficoltà che ciò comporta, con all'interno dispositivi che mantengono il tutto a temperature vicine allo zero assoluto poiché la vivacità della materia si abbassa notevolmente col freddo.

Dagli anni ’60 la cosiddetta “legge di Moore”, uno dei pilastri per mezzo secolo del progresso informatico, ha predetto che ogni 18/24 mesi i processori dimezzano il proprio prezzo e proprie dimensioni pur raddoppiando la potenza di calcolo, e così è stato fino ad oggi grazie agli enormi investimenti nel settore dei semiconduttori. Ora siamo, però, ad un punto di svolta, ad un rallentamento ed a una ottimizzazione della tecnologia esistente, che potrebbe essere, tuttavia, l’anticamera del prossimo salto generazionale che si aprirà con i computer che si affideranno alla “supremazia del quanto” (“Quantum supremacy” è, infatti, la definizione data da Google in uno studio che descrive i piani futuri per la creazione di un computer quantistico da 50 qubit.) Tale supremazia non deriverà tanto dal superamento dei limiti della potenza di calcolo dei computer tradizionali, quanto dalla possibilità di eseguire operazioni e risolvere problemi che sono concettualmente preclusi alle macchine basate sui bit. E così le nuove applicazioni computazionali potranno velocizzare lo sviluppo delle tecniche di machine learning e dell’intelligenza artificiale, non solo grazie a potenze di calcolo maggiori, mas grazie alla possibilità di affrontare problemi di enorme complessità da prospettive completamente nuove e con maggior efficienza grazie alla ridefinizione di procedure e algoritmi. Nel frattempo le più grandi aziende del mondo stanno portando avanti la ricerca sui computer quantistici nelle loro sedi, ne è un esempio l’IBM che ha reso il suo computer quantistico una risorsa cloud accessibile a tutti, tramite la sua IBM Cloud Platform a cui ci si può iscrivere attraverso un apposito form online se siete curiosi di provare questa nuova tecnologia. L’utilizzo di piattaforme cloud renderebbe, inoltre, irrilevante l’oggetto che usiamo per fare quello di cui abbiamo bisogno, che sia un tablet, una console o un frigorifero, aprendo nuove modalità di utilizzo grazie alle, ormai economiche, risorse cloud disponibili oggi. Dal punto di vista pratico i computer quantistici aprono scenari che fino a oggi sono rimasti confinati alla fantascienza, d’altro canto, però, computer così potenti potrebbero vanificare in pochi attimi l’efficacia dei più potenti algoritmi di cifratura in uso oggi rendendo superflui tali strumenti fondamentali che utilizziamo ogni giorno (dalla cifratura dei numeri di carta di credito che transitano sulle reti ai codici militari), grazie alla potenziale risoluzione in maniera rapidissima dei vari e complicati problemi matematici alla base della crittografia contemporanea. Questo mi porta ad immaginare un computer che, dopo avere effettuato in pochissimo tempo i suoi calcoli, abbia ancora tempo e spazio in memoria sufficienti per analizzare i suoi stati interni di continuo: in pratica, un computer in grado di simulare la coscienza e non so se questo mi affascina o mi fa paura.

Gianluca Cimini

]]>
Wed, 1 Mar 2017 19:18:42 +0000 http://www.gianlucacimini.it/mc/504/1/fuori-dalla-sua-bozza-teorica-il-2017-sara-l-anno-del-computer-quantistico---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
CIOC: un cyber-comando militare per difendere l’Italia dagli hacker - di Gianluca Cimini http://www.gianlucacimini.it/mc/503/1/cioc-un-cyber-comando-militare-per-difendere-l-italia-dagli-hacker---di-gianluca-cimini

Nel Libro Bianco per la Sicurezza Internazionale, il Ministero della Difesa aveva definito, già nel 2015, la necessità di sviluppare specifiche capacità cyber difensive anche in ambito militare per il nostro paese. Da quest’anno, confermato ufficialmente alla Stampa durante la conferenza italiana sulla cyber sicurezza “ITASEC17”, diventerà operativo il “Comando Interforze per le Operazioni Cibernetiche” (abbreviato in CIOC) che porterà così anche le forze armate italiane ad avere un comando specifico per attività cyber, sul modello di quello statunitense, che si occuperà sia di sostenere e proteggere le operazioni militari sviluppando le capacità di pianificazione e conduzione di Computer Network Operations (CNO), sia di coordinare le forze armate e le altre strutture nazionali che si occupano della protezione informatica del Paese, come il Centro anticrimine informatico per la protezione delle infrastrutture critiche (CNAIPIC) della Polizia Postale e gli enti che si occupano di rispondere alle segnalazioni di incidenti informatici, come il Computer emergency response team (CERT). Secondo il Wall Street Journal, a fine 2015, erano già una sessantina i Paesi che stavano sviluppando strumenti di cyberspionaggio o attacco, ed una trentina quelli che avevano creato unità specializzate nell’offesa (per esempio il Comcyber francese impiega 2600 unità, mentre il Cyber Command Americano ha raggiunto 6000 unità). Gli esperti di sicurezza riuniti al World Economic Forum di Davos hanno dato proprio da poco, inoltre, l’allarme sul rischio concreto che si verifichino alcuni cyberattacchi durante le elezioni di quest’anno in Europa. La creazione di un tale comando nasce a seguito del riconoscimento, durante lo scorso summit di Varsavia, da parte dei Ministri della Difesa appartenenti al blocco NATO, del cyber-spazio come quinto dominio della conflittualità dopo terra, mare, aria e spazio. Tale importantissimo riconoscimento, che interessa tutti gli Stati appartenenti all’Alleanza atlantica, porterà all’estensione della clausola di difesa collettiva in maniera tale che i vari Stati appartenenti alla NATO si forniscano reciproca assistenza anche in caso di aggressione attraverso attacchi cibernetici. In quest’ottica i neo-nati comandi per le operazioni cibernetiche si occuperanno, quindi , non solo di sviluppare le più idonee capacità di cyber-defence per difendere i propri sistemi informatici da possibili attacchi hacker o di altri paesi nemici, ma svilupperanno anche capacità offensive da utilizzare come mera reazione ad eventuali attacchi portati nei confronti della NATO o di uno dei Paesi alleati. Il vice comandante CIOC, Maurizio La Puca, ha affermato in un recente convegno che il neo comando si pone due obiettivi primari: “il primo è quello di realizzare una capacità operativa per supportare le forze durante le operazioni. Tutto l’apparato militare ha una componente tecnologica che inevitabilmente deve essere protetta e quindi il comando cyber si occuperà di gestire queste operazioni di supporto ai nostri contingenti in diverse aree. Il secondo obiettivo è di portare dentro il comando tutta l’organizzazione della difesa cibernetica a favore del sistema Paese. Ciò significa che il nuovo strumento si integrerà completamente con la struttura organizzativa di difesa cyber nazionale. […] fornendo il suo supporto con degli strumenti avanzati sia sul piano organizzativo sia tecnologico, che costituiranno una evoluzione di quello che è attualmente il campo di azione”.

Il fronte della sicurezza informatica sarà sempre più determinante anche per l’Italia per proteggere segreti militari e industriali, entrambi quotidianamente sotto attacco da parte di pirati informatici di vari Paesi, sia su quello della lotta al terrorismo internazionale. Mentre nel passato la vittoria militare era condizionata dal rapporto di forza dei soldati schierati sul terreno, oggi il principale campo di battaglia è la rete internet che rappresenta il vero sistema nervoso e venoso dell’economia tutta. E proprio perché le minacce nel campo della sicurezza informatica tendono ad evolversi a ritmi impressionanti risulta ancora più vitale ed importante munirsi di una struttura di difesa adeguata, sia a livello nazionale, sia a livello europeo. Dal momento che ormai tutto è connesso, che si parli di rete elettrica, trasporti o infrastrutture critiche, non è più possibile rimandare la discussione sulla cybersecurity e l’avvio dei lavori per il CIOC è indubbiamente un’ottima notizia per noi italiani. Un eventuale attacco informatico potrebbe, infatti, avere conseguenze deleterie su più fronti, mettendo a rischio la sicurezza del Paese, potrebbe destabilizzare un’attività economica o rivelare importanti informazioni che violino la privacy dei singoli cittadini. La mia speranza è , quindi, che si lavori sempre di più su questo fronte, dotando le forze di polizia e di intelligence di strumenti più adeguati alle sfide che provengono dal cyberspazio, termine coniato dallo scrittore William Gibson e che, per definizione, non ha perimetro, non ha frontiere. Ed è anche vero per questo che gran parte di quello che chiamiamo cyberspazio sta in mano a soggetti privati portando quindi molte delle infrastrutture critiche per il paese fuori dai controlli dello Stato, proprio per questo una stretta collaborazione fra pubblico e privato è, a mio parere, fondamentale. Riprendendo le parole del Ministro dell’Interno Minniti: “Viviamo oggi un'epoca in cui la sicurezza cibernetica è, deve essere, parte integrante del nostro sistema paese. Far breccia nei sistemi informativi per carpire segreti industriali, culturali e di intelligence, fino ad arrivare ad attacchi che puntano a far collassare il paese, sono una minaccia seria, reale e costante. Ecco perché riconosco con forza la necessità che le Università, il settore industriale e le istituzioni collaborino per garantire spazi di sicurezza".

Gianluca Cimini

]]>
Mon, 27 Feb 2017 16:44:54 +0000 http://www.gianlucacimini.it/mc/503/1/cioc-un-cyber-comando-militare-per-difendere-l-italia-dagli-hacker---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
ITASEC2017, la prima conferenza italiana sulla Cyber security - di Gianluca Cimini http://www.gianlucacimini.it/mc/502/1/itasec2017-la-prima-conferenza-italiana-sulla-cyber-security---di-gianluca-cimini

Si è svolta a Venezia, dal 17 al 20 gennaio, la prima conferenza italiana sulla cyber security, nella quale esperti del settore hanno fatto il punto per quanto riguarda la ricerca Italiana sull’importante, e quanto mai attuale, problema della sicurezza online. Così circa 500 addetti ai lavori, tra ricercatori, membri del governo, dell’industria e dei servizi, si sono incontrati tra le mura del complesso di San Giobbe dell'Università Ca' Foscari per discutere di tecnologia, cyberwar, industria 4.0, ricerca, protezione di infrastrutture critiche, le capacità di difesa cyber della nazione, le policy italiane e internazionali, la necessità di attrarre investimenti e di sviluppare una più efficace partnership tra settore pubblico e privato. Insomma argomenti assolutamente da non sottovalutare dal momento che ormai tutta l’economia si muove proprio attraverso lo spazio cibernetico e proprio per questo motivo è fondamentale creare, non solo conoscenze approfondite dell’argomento, ma anche un ecosistema integrato, sia pubblico sia privato, in grado di far interagire, a più livelli, proprio queste conoscenze. E si è parlato anche di tanti argomenti che mi sono vicini e che io stesso ho affrontato nei mesi passati: crittografia, malware, Internet of Things, moneta digitale e blockchain, per esempio. In un mondo pervaso totalmente dal digitale, la sicurezza informatica diventa quanto mai fondamentale e strategica per ogni paese. Basti pensare che, dai dati pubblicati dalla Nota scientifica dell'Istituto Demoskopika intitolata "La mappa dell'hacking in Italia”, si evince che dal 2001 ad oggi, a seguito di diversi attacchi informatici, sono state violate le home page e le pagine interne di quasi 12 mila siti internet italiani di “interesse regionale” con in testa a questa particolare classifica la regione Toscana, seguita da Sicilia, Lombardia ed Emilia Romagna. E dei 1.250 hackeraggi analizzati negli ultimi 18 mesi oltre la metà presentano una matrice politica con l’obiettivo primario di produrre rivendicazioni, minacciare ritorsioni verso i Paesi occidentali o dimostrare da parte degli hacker la vulnerabilità del sito e rivendicare l’accessibilità per tutti delle informazioni.

"Il nostro Paese deve costruire un ecosistema cyber che ci permetta di affrontare le minacce cybernetiche del futuro come Sistema-Paese. La ricerca nazionale tutta, il pubblico e il settore privato dovranno trovare una alchimia per creare un ecosistema che favorisca l'innovazione accelerando il trasferimento tecnologico, che aumenti la workforce nazionale in cybersecurity e che riesca a creare i giusti strumenti per una efficace collaborazione internazionale.” queste le parole di Roberto Baldoni, direttore del Laboratorio Nazionale Cybersecurity del CINI che ha creato ITASEC. Il rapporto sinergico tra pubblico e privato è stato, infatti, uno dei principali scopi di Itasec 2017.

Come abbiamo scoperto ultimamente, specialmente riguardo le passate elezioni americane e le presunte interferenze di altri paesi sui risultati dei voti finali, il problema della cyber security sta diventando una priorità in tutte le nazioni più avanzate, dal momento che proprio sul cyber spazio, probabilmente, si giocheranno le battaglie future, non solo a livello militare, ma anche economico, ed avere un vantaggio rispetto alle altre nazioni in questo campo determinerà, a mio parere, la competizione dei prossimi 50 anni. Disporre di capacità di cyber defence significa, infatti, essere in grado di espletare funzioni di prevenzione e di protezione della propria infrastruttura in uno scenario geopolitico mondiale asimmetrico e multiforme. Come ha affermato durante la conferenza il Sottosegretario alla Difesa Domenico Rossi: “oggi il principale campo di battaglia è la rete internet, che rappresenta il vero sistema venoso e nervoso dell’economia. […] Un processo impegnativo che si sviluppa attraverso l’implementazione di strutture difensive adeguate, in continuo aggiornamento grazie alla ricerca e alla formazione di personale qualificato nel settore della difesa cibernetica”.

Infatti, ormai, quando si parla di operazioni militari, ci si riferisce, in termini di tecnologia, ad un flusso costante di informazioni digitali, utili per garantire una capacità di reazione ed organizzazione migliore ma, allo stesso tempo, a dati sensibili che, se non opportunamente protetti, possono portare un possibile vantaggio tattico a diventare un punto di debolezza senza precedenti. Mi auguro, quindi, che anche l’Italia riesca a fare “sistema” riguardo alla complessità dei problemi che lo spazio cibernetico porta con sé, anche perché questo è un mondo in continua evoluzione ed è necessario rimanere aggiornati con le dovute conoscenze sulle nuove tecnologie. Il rischio cyber evolve rapidamente ponendo nuove e più complesse sfide. 

Gianluca Cimini

]]>
Fri, 24 Feb 2017 16:39:10 +0000 http://www.gianlucacimini.it/mc/502/1/itasec2017-la-prima-conferenza-italiana-sulla-cyber-security---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Design, sostenibilità ed energia elettrica si uniscono nelle case di Elon Musk - di Gianluca CImini http://www.gianlucacimini.it/mc/501/1/design-sostenibilita-ed-energia-elettrica-si-uniscono-nelle-case-di-elon-musk---di-gianluca-cimini

Fondatore di Paypal, Tesla Motors e SpaceX, indubbiamente Elon Musk è un uomo dai mille piani che potrebbero cambiare la vita di molti di noi, dalle auto elettriche per il grande pubblico, ad aziende per noleggiare l’energia solare, oppure alla realizzazione di un veicolo spaziale riutilizzabile. Ho ascoltato con piacere l’imprenditore sudafricano, naturalizzato statunitense, Musk discutere, durante un TED, con il curatore della piattaforma di conferenze statunitensi Chris Andersen e ritengo molti dei suoi progetti visionari, ma sicuramente anche estremamente accattivanti. Per chi non conoscesse cos’è un TED (non parlo dell’orso pupazzo ovviamente) mi riferisco a conferenze su tecnologia, design, mondo scientifico, culturale ed accademico, diffuse gratuitamente in live streaming attraverso internet e tenute dai maggiori esperti dei settori interessati (la cui missione è riassunta nella formula "ideas worth spreading" ossia “idee che val la pena diffondere”).

L’ultima genialità di Mister Musk è stata presentata qualche mese fa: un tetto solare costituito da piastrelle di vetro e progettato per introdurre i pannelli solari nella case in una maniera più accattivante ed attraente, perché è pur vero, a mio avviso, che la tecnologia migliore è quella che ha una grande diffusione ed un grande impatto sulla vita delle persone. Obiettivo dell’azienda “SolarCity” , azienda specializzata in prodotti e servizi legati al fotovoltaico di cui Musk è l’investitore principale e presidente del consiglio di amministrazione, è la lotta al riscaldamento globale attraverso l’utilizzo di tecnologie green. La grande maggioranza dei pannelli fotovoltaici che abbiamo conosciuto fino ad oggi, funzionano attraverso l’attività di più celle fotovoltaiche che sono gli elementi primari per innescare l’effetto fotovoltaico ossia la reazione fisica in grado di produrre energia attraverso il sole. Il funzionamento delle celle solari è legato, infatti, alla complessa interazione fra luce e materia, e coinvolge la natura e le caratteristiche della luce, la fisica dei materiali e la realizzazione di dispositivi elettronici. Senza addentrarmi troppo in dettagli tecnici, una cella fotovoltaica (costituita da silicio, ossia uno dei materiali semiconduttori più presenti in natura e costituita da due strati: uno drogato negativamente ed un altro drogato positivamente) quando si trova colpito dalla luce solare genera per mezzo delle differenze di cariche una reazione fisica in grado di creare un campo elettrico in corrente continua. Grazie a questa reazione fisica ogni pannello è in grado di generare, partendo dai differenziali di carica tra due strati di silicio puro, corrente elettrica continua (trasformata in corrente alternata successivamente tramite un inverter). Se è pur vero che la tecnologia del fotovoltaico sta migliorando negli anni, rimane, comunque, il problema dell’installazione di grossi pannelli sui tetti delle case (discorso diverso va fatto quando questi pannelli vengono utilizzati in aziende o parcheggi auto dal momento che sono più facilmente assimilabili al contesto), problema che può essere ovviato grazie all’utilizzo di speciali piastrelle costituite di vetro che si sostituiscono totalmente ai vecchi pannelli. Personalizzabili secondo le richieste del cliente, che può scegliere il design dei singoli elementi per adattarli meglio allo stile specifico della casa, le speciali piastrelle tendono a scomparire sul tetto a tal punto da mimetizzarsi completamente con la casa. L’energia immagazzinata dalle piastrelle andrebbe poi a convogliarsi in speciali batterie (Powerwall 2 dal costo di circa 5.500 $) in grado di erogare tale energia per tutti gli usi di casa o anche, nel caso di energia in eccesso, per essere venduta. Il prodotto si rivolge ai costruttori di case e coloro che cercano di sostituire i loro tetti con piastrelle più resistenti, con una migliore qualità di isolamento e ad un costo più basso, così affermano almeno, rispetto a quanto verrebbe un tetto convenzionale a cui dovesse essere in seguito aggiunto un sistema fotovoltaico tradizionale. Il lato estetico di certe tecnologie a volte viene completamente ignorato, ma è pur vero che un prodotto che sia esteticamente attraente, oltre che funzionale, ha una marcia in più sul mercato. L’estetica delle “tessere” che compongono il tetto è stata progettata per integrarsi perfettamente con le celle solari incorporate, in maniera impercettibile, in ogni singola piastrella di vetro. Ha affermato l’AD di SolarCity: ”Questa è una sorta di futuro integrato. Una macchina elettrica, un Powerwall e un tetto solare. La chiave è che deve essere bella, conveniente e perfettamente integrata".

Tutto, infatti, rientra in un progetto più grande di trasformazione della vita dei consumatori volta all’utilizzo di queste tecnologie green (dove si combinano auto elettriche e batterie, di cui Musk è precursore da quando ha fondato l’innovativa compagnia automobilistica Tesla), senza più dover ricorrere ai combustibili fossili o ad un’idea di rifornimento energetico impostato dall’alto, dal momento che ogni singola famiglia può diventare un nodo dello scambio energetico del futuro, dove ogni nucleo familiare produce per sé e vende o condivide l’energia in eccesso prodotta in maniera ecologica e sostenibile a casa. Le batterie di ultima generazione permettono, inoltre, di sfruttare l’energia solare come fonte energetica 24 ore su 24, 7 giorni su 7, mettendola automaticamente a disposizione quando il sole non c’è. La combinazione tra pannelli solari e batterie può, quindi, moltiplicare i vantaggi economici dell’energia solare e ridurre l’impatto ambientale. Forse a volte ce lo dimentichiamo ma il nostro amato sole irradia ogni anno sulla Terra una quantità di energia pari a circa 10.000 volte il consumo mondiale di energia primaria. Oltre al grande potenziale energetico, la fonte solare è rinnovabile per definizione e ha un impatto ambientale molto ridotto. Tuttavia, nonostante la sua efficacia, l’energia solare rimane una fonte di energia alternativa, relativamente sottoutilizzata. Mi auguro quindi che, tecnologie come queste, o come le prossime che arriveranno, possano aiutare questo importante settore ad avere un incremento significativo nel mercato energetico. Il mondo si può cambiare fin dalle nostre mura di casa, dopotutto.

Gianluca Cimini

]]>
Tue, 21 Feb 2017 21:53:39 +0000 http://www.gianlucacimini.it/mc/501/1/design-sostenibilita-ed-energia-elettrica-si-uniscono-nelle-case-di-elon-musk---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Prevenire e contrastare il Cyberbullismo, il disegno di legge viene approvato - di Gianluca Cimini http://www.gianlucacimini.it/mc/500/1/prevenire-e-contrastare-il-cyberbullismo-il-disegno-di-legge-viene-approvato---di-gianluca-cimini

Prevenire e contrastare il fenomeno del bullismo e della sua versione più moderna e sicuramente più pericolosa, ossia quel bullismo portato avanti sui social media attraverso campagne denigratorie veloci, efferate e difficilmente arginabili, è l’argomento del momento al Senato. Il primo febbraio, praticamente all’unanimità, infatti, è stato approvato il disegno di legge che punta a contrastare il grave fenomeno del cyberbullismo che porta con sé in questa ultima revisione la novità della definizione del fenomeno e la possibilità per il minore (anche senza che il genitore lo sappia) di chiedere direttamente al gestore del sito l’oscuramento o la rimozione della “cyber aggressione”. Da quel momento in poi, chi ospita il contenuto ha 24 ore per accogliere la richiesta e 48 ore per procedere alla rimozione. In caso di inerzia ci si può allora rivolgere al Garante della Privacy, ma in questo caso assieme a un adulto. Il disegno di legge introduce la procedura di ammonimento, come avviene per lo stalking, al fine di responsabilizzare i minori ultraquattordicenni autori di reati tenendoli però, nei casi in cui è consentito dalla legge, fuori dal penale. E se si sbaglia, poi, bisogna rieducare attraverso istituzioni, forze dell'ordine, eccellenze sanitarie, esperti di pedagogia, di diritto, famiglie ed insegnanti.

Con la speranza che venga approvato al più presto il DDL dopo l’esame della Camera si inizia così ad affrontare un fenomeno grave, ma spesso sottostimato. Ricordo ancora quando frequentavo le scuole medie o superiori e già allora i tipici bulli si approfittavano di quei compagni di classe visti come più deboli o isolati,  deridendoli pubblicamente o architettando scherzi più o meno leciti. Un tempo, però, l’offesa rimaneva tra le mura della classe e di solito si concludeva con un chiarimento tra i soggetti interessati, almeno nella maggior parte dei casi. Oggi invece in una scuola o in una società connessa, aperta e veloce tutto ha preso una piega differente ed un uso distorto della rete da parte di un singolo o di un gruppo di persone può portare, se indirizzato verso un minore, a conseguenze tragiche. E negli ultimi anni, purtroppo,  esempi di bullismo finiti male ce ne sono stati, e quando la “macchina del fango” si mette in moto non è facile bloccarla e le conseguenze possono essere catastrofiche se non si agisce velocemente per ripristinare la dignità di una persona o la sua reputazione, magari ingiustamente lesa. Quello del cyberbullismo è un fenomeno in crescita esponenziale, intervenire è quindi prioritario proprio perché le vittime sono spesso i soggetti più fragili come i minori. Non esiste al momento un’adeguata educazione all’uso dei social media, né tantomeno strumenti critici per utilizzare mezzi così veloci e pervasivi che vengono ormai utilizzati fin dalla giovane età senza domandarsi  quali siano i possibili aspetti negativi e le ripercussioni che tali mezzi possono avere sulla formazione dell’identità di un individuo. La centralità delle scuole è, a mio avviso, fondamentale per affrontare il problema del bullismo e ben vengano giornate dedicate al delicato tema (come quella organizzata il 7 febbraio dal Miur: "Un Nodo Blu - le scuole unite contro il bullismo”) ma non basta. La questione si dovrebbe affrontare in maniera ancora più approfondita, il problema è che molti insegnanti riguardo a cultura digitale hanno spesso da imparare più degli stessi studenti interessati. In seguito alle nuove norme europee in tema di trattamento dei dati personali anche social media e piattaforme dovranno organizzarsi attraverso delle apposite strutture interne per far fronte in maniera tempestiva alle varie richieste di rimozione, agire in maniera veloce è fondamentale, infatti, per limitare i danni provocati dalla diffusione di notizie false o atti di cyberbullismo. Mentre un tempo era sufficiente cambiare scuola, la viralità del bullismo telematico non ha limiti di tempo e di spazio proprio perché può raggiungere chiunque, ovunque e a tutte le ore e questo lo rende a mio avviso molto più pericoloso del tradizionale bullismo. Con la diffusione, inoltre, di profili falsi che nascondono il vero responsabile delle condotte vessatorie, non sempre la vittima sa chi ha contro e anche per questo ha difficoltà nell’agire poiché non capisce chi la stia molestando. Ed il bullo si fa spesso forza proprio del poter agire quasi indisturbato e totalmente celato dietro ad un nickname che non gli appartiene, gratificandosi magari dei consensi ottenuti attraverso le sue azioni e condivisi dai follower che lo seguono. La rete esclude di per sé un contatto diretto tra vittima e bullo che, infatti, nel suo agire perde il senso della sofferenza che provoca e del disagio che crea nella vita della vittima della sua azione di bullismo. Mi auguro che questa legge possa assicurare non solo supporto alle vittime di bullismo, ma che dia anche inizio ad una diversa educazione dei giovani e delle giovani affinché sappiano rifiutare l’odio online ed imparino a difendersi nel caso diventassero vittime di cyberdiscriminazioni o di cyberbullismo. La rete è un mezzo potente e globale e, come mezzo, ha un enorme potenziale che può essere sfruttato per ogni causa positiva immaginabile, ma anche per scopi meno nobili, necessita, quindi, non nella rete stessa, ma nell’educazione delle persone una maggiore consapevolezza di quello che possiamo portare allo spazio web per renderlo più sicuro e libero dall’odio per tutti. Non criminalizzare il web quindi, ma saper prevenire e promuovere un uso corretto della rete, mettendo in primo piano la responsabilità individuale e collettiva sia dei minori sia degli adulti, aiutando i nostri ragazzi ad un uso civile e corretto della rete, ma lo strumento principale per contrastare questo fenomeno rimane, secondo me, sempre e comunque la formazione, l’attività educativa e il confronto nelle scuole, perché i nostri ragazzi ancora prima che navigatori virtuali sono persone reali.

Gianluca Cimini

]]>
Sat, 18 Feb 2017 17:37:20 +0000 http://www.gianlucacimini.it/mc/500/1/prevenire-e-contrastare-il-cyberbullismo-il-disegno-di-legge-viene-approvato---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Formula E: i bolidi, stavolta elettrici, potrebbero tornare a Roma http://www.gianlucacimini.it/mc/499/1/formula-e-i-bolidi-stavolta-elettrici-potrebbero-tornare-a-roma

A distanza di anni dal progetto di portare la Formula 1 a Roma tra le strade del quartiere Eur, ritorna nelle mire degli organizzatori l’ipotesi per la Capitale di ospitare un gran premio automobilistico, si parla però stavolta di Formula E, ossia il nuovo campionato dedicato esclusivamente alle monoposto elettriche. Il sogno dell’ex Sindaco Alemanno che, all’epoca inquilino di Palazzo Senatorio, sognava di veder sfrecciare Ferrari e McLaren all’ombra del Colosseo Quadrato, era naufragato sia per diverse polemiche politiche, sia per le proteste degli ecologisti e dei cittadini residenti nel quartiere dell’Eur. Sul tracciato proposto in passato potrebbe però arrivare un altro grande evento sportivo dall’anima “green”. La corrispondenza tra la nuova Sindaca Cinquestelle Raggi e la FIA potrebbe, infatti, portare nella Capitale, nell’ambito di un programma strutturato alla mobilità sostenibile, una tappa del campionato di Formula E, dall’impatto minimo e, come affermano dal Campidoglio, con un ritorno economico positivo per tutta la città. Vantaggi per la città potrebbero arrivare, oltre al successo di ospitare un evento di risonanza mondiale, dal rifacimento, a costo zero, del manto stradale e dall’installazione di colonnine permanenti per la ricarica delle auto elettriche, con un indotto generato dalla gara di diversi milioni di euro, senza , però, che sia un evento invasivo come per altre categorie di gare , dal momento che il patron della Formula E Alejandro Agag ha sempre voluto dare alla sua creatura un’impronta ambientalista con strutture utilizzate semplici, paddock provvisori e grande coinvolgimento del pubblico e della cittadinanza.

In passato, precisamente tra il 1925 e il 1991, Roma aveva già ospitato tra le sue strade una grande gara automobilistica e motociclistica: il Gran Premio di Roma. Nei vari eventi svolti negli anni, molti erano stati i circuiti cittadini usati e molte le categorie di vetture utilizzate nel gran premio: Formula 2, Formula 3000 e Formula 1. Le prime gare vennero svolte nei pressi dell’aeroporto dell’Urbe, in seguito ne furono organizzate altre a Ostia sul cosiddetto “Circuito dell’Impero” e dopo la guerra ci si spostò sul circuito cittadino presso le Terme di Caracalla. Ma il primo vero e proprio GP di Formula 1 a Roma (dal momento che la F1 nacque ufficialmente nel 1950) si svolse il 6 giugno del 1954 sulla lunga striscia d’asfalto che attraversa la pineta di Castel Fusano ad Ostia sul litorale romano (e che ora ha preso il nome di “Viale del Circuito”). Questa gara, che purtroppo non assegnava punti validi per il titolo iridato, vide la partecipazione di tutti i più grandi piloti dell’epoca come Ascari, Fangio e Moss. La Formula 1 in seguito tornò a Roma sul circuito di Vallelunga nel 1963 e nel 1972 cambiando denominazione in “GP della Repubblica Italiana”. Questa fu l’ultima occasione per la Capitale di ospitare l’importante evento e nemmeno l’interessamento da parte di Enzo Ferrari in persona nei primi anni 80 riuscì a riportare la Formula 1 nella città eterna.

Ideata nel 2012 e con il suo primo campionato inaugurale iniziato il 13 settembre 2014, la Formula E è una categoria automobilistica ideata dalla Federazione Internazionale dell’Automobile dedicata esclusivamente a veicoli spinti da motori elettrici. Bolidi velocissimi che non sfondano i timpani con assordanti ruggiti, non inquinano con fumi di scarico, ma ronzano appena: potrebbe essere questo il futuro delle auto da competizione. Al contrario della maggior parte delle categorie automobilistiche che abbiamo visto fino ad oggi, le gare di Formula E vengono svolte quasi esclusivamente su circuiti urbani su tracciati con una lunghezza compresa tra i 2,5 e i 3km. Le monoposto elettriche, di base tutte uguali tra loro, pesano circa 900 Kg, sono alimentate da batterie da 28 kWh collegate a motori che erogano da 170 a 200 kW a seconda dei frangenti della corsa. L’unica differenza tecnica ammessa fra le vetture è il cambio, che può essere fornito da vari costruttori purché rispetti le credenziali tecniche imposte dalla Fia. Le prestazioni di queste autovetture promettono un’accelerazione da 0 - 100 km/h in 3 secondi e una velocità massima a 225 km/h. Ad oggi l’autonomia delle monoposto è ancora limitata, ma il problema potrebbe essere risolto nelle prossime stagioni grazie ad un nuovo pacco batterie di derivazione McLaren. Sulle varie specifiche e regole i giochi sono ancora aperti, dal momento che ogni anno la FIA sta cercando di migliorare questa nuova categoria di gare con l’obiettivo che i costi non lievitino e rimangano quegli standard di sostenibilità che sono un’area chiave per la filosofia intrinseca della Formula E. Mentre scrivo questo articolo è in corso, inoltre, la terza stagione del campionato che si concluderà il 30 luglio 2017 a New York (visibile in chiaro su RaiSport sul digitale terrestre).

Il progetto dell’E-Prix è molto diverso da quello prospettato anni fa per il GP di Formula 1, nonostante questo in Italia è subito partita nuovamente la campagna del No da parte di comitati di cittadini e residenti dell’Eur, altrove, invece, le maggiori capitali del mondo (New York, Parigi, Berlino, Monte Carlo, Buenos Aires) contendono tra loro per portare le monoposto elettriche sulle loro strade. Proteste e consensi, quindi, per un evento che nella sua organizzazione prevede gare solo un giorno (il sabato) per bloccare il meno possibile il quartiere che ospita l’evento e non impatta sulle città con strutture permanenti. Il percorso previsto per l’evento sarebbe già pronto e si snoderebbe per tre o quattro chilometri tra le vie dell’EUR, passando per parte della Cristoforo Colombo e sviluppandosi a forma di “T”. La competizione verrebbe accompagnata da una settimana di eventi tutti dedicati alla promozione dell’elettrico e delle energie alternative sfruttando anche la Nuvola, il nuovo centro congressi inaugurato poche settimane fa. Questa potrebbe essere un’opportunità in più per la città eterna che si aggiungerebbe così alle altre capitali toccate dal campionato delle monoposto a batteria. Cosa ci guadagnerebbe Roma oltre al prestigio di una manifestazione internazionale? Ad ascoltare il presidente di Eur Spa, Roberto Diacetti, a fronte di circa 12 milioni di costo della manifestazione, a carico della Formula, l’indotto dovuto alle presenze potrebbe anche sfiorare i 40 milioni di euro a beneficio dell’Urbe. L’idea di un gran prix assolutamente green, anche a fronte della chiusura di alcune strade per alcune ore nel weekend in accordo con cittadini, non mi sembra così male, specie se l’Italia vuole rilanciare il turismo, che da solo dovrebbe diventare la nostra prima voce del PIL, ed aprirsi a nuove opportunità che gli vengono offerte da un evento internazionale nel segno delle energie alternative e della sostenibilità ambientale.

Gianluca Cimini

]]>
Fri, 10 Feb 2017 19:59:59 +0000 http://www.gianlucacimini.it/mc/499/1/formula-e-i-bolidi-stavolta-elettrici-potrebbero-tornare-a-roma gianlucacimini2016@gmail.com (Gianluca Cimini)
Ecosistema delle startup italiane a fine 2016, bene, ma non benissimo - di Gianluca Cimini http://www.gianlucacimini.it/mc/498/1/ecosistema-delle-startup-italiane-a-fine-2016-bene-ma-non-benissimo---di-gianluca-cimini

Riguardando il bilancio relativo alla nascita, crescita e declino delle startup italiane per l’anno che si è appena concluso è innegabile notare che qualcosa si sta muovendo nell’ecosistema tricolore: ancora non abbastanza per un mercato importante come quello italiano, ma gli investimenti sono i più alti mai registrati da quando, nel 2012, si è iniziato a mappare tali operazioni. Per farsi un’idea nei soli primi sei mesi del 2016 gli investimenti sono stati pari a 86,2 milioni di euro, circa 52 milioni in più rispetto allo stesso periodo del 2015. E si parla solamente delle startup con base in Italia, se allargassimo, invece, lo sguardo anche a quelle all’estero fondate da italiani o trasferite in seguito, si raggiungerebbe la ragguardevole cifra di oltre 142 milioni. Durante l’anno nel mercato sono entrate aziende, più o meno grandi, che hanno comprato quote in startup per decine di milioni. Altrove, seguendo il trend del momento, abbiamo visto invece startup investire in altre startup. Ma le nostre startup fanno gola anche al mercato internazionale, otto di queste sono state acquisite da aziende estere che in questo modo hanno potuto trasferire competenze e talenti dall’esterno all’interno del perimetro dell’impresa. Da dispositivi medici, a soluzioni tecnologiche innovative, passando per l’editoria digitale, la cultura culinaria o il settore delle automotive, senza dimenticare viaggi, vacanze ed ovviamente la stampa 3D, insomma, le nostre startup fanno gola a molti. A maggio si è conclusa anche la prima acquisizione italiana da parte di Microsoft, che ha aggiunto al suo network la bolognese “Solair”,  società che si occupa di cloud computing e internet of things ed una delle poche italiane ad aver raggiunto un fatturato di un milione di euro.

La maggior parte delle startup deve la propria nascita, ossia trasformazione della singola idea in vera e propria realtà imprenditoriale, ai cosiddetti “incubatori” che supportano l’idea di base ed aiutano la giovane startup a crescere e maturare fino alla realizzazione e commercializzazione del prodotto finale. Nonostante una vocazione internazionale, le varie startup non dimenticano il legame col territorio che le ospita e possono essere, quindi, un importante traino per l’occupazione locale in quelle zone con crescita bassa e disoccupazione in crescita. Gli stessi incubatori a livello nazionale possono assumere un ruolo fondamentale per il rilancio dell’economia. Durante quest’anno grandi Big di Internet hanno espresso fiducia nel sistema Italia: da Google, che ha lanciato il primo programma di accelerazione per Android a Roma, alla prima accademia per sviluppatori di Apple a Napoli, per citare le due realtà più importanti. Tutti ormai sanno che le startup possono rivitalizzare l’economia, non è un caso che gli amministratori delegati delle aziende più importanti ne discutano cercando di capire come approcciarsi a nuovi modelli di business. È fatto noto che molte startup promettenti, cresciute in incubatori italiani, finiscono poi per affidarsi a finanziamenti in paesi esteri, dove le conseguenze in termini di vincoli e condizioni sono differenti. Perché dare l’avvio ad una startup in Italia potrà anche non essere difficilissimo, la vera sfida è quella di riuscire a farla sopravvivere. Nella Silicon Valley lavorano nel settore dell’high tech circa 564 mila sviluppatori, Londra, Parigi e Berlino insieme ne contano circa 515 mila e in Italia? Pochi, pochissimi, pari quasi allo 0,05% di una città grande come Roma e purtroppo, a mio avviso, un Paese che non riesce a generare professionisti del settore rischia la stagnazione. La competizione a livello internazionale per accaparrarsi i professionisti migliori si sta facendo sempre più intensa complice la facile mobilità e gli stipendi appetibili offerti in alcuni Paesi. Uno sviluppatore in Svizzera, tanto per fare un esempio, può avere una retribuzione annua pari all’equivalente di 90.000 dollari, la media italiana è invece di circa 34.000 dollari, una media che la rende così il terzultimo paese in Europa per attrattività delle retribuzioni a pari di Spagna e davanti solo a Grecia e Portogallo. Proprio le retribuzioni sono uno dei deficit che incrina il mercato italiano del tech. E considerando tutto questo non è un caso che chi ha studiato e si è impegnato tanto tenda a spostarsi a seconda delle varie offerte contrattuali.

Non influirà magari sugli stipendi dei vari sviluppatori, ma l’ultima legge di bilancio, approvata a dicembre 2016, anche se in sordina, contiene diverse novità alquanto interessanti a sostegno delle startup e delle piccole medie imprese innovative. Tutte misure che sono entrate in vigore da quest’anno e di cui la più importante è quella degli incentivi. Leggendo la manovra, infatti, sono venuto a conoscenza della possibilità, per chi investe in startup e PMI innovative, di poter usufruire di detrazioni fiscali di un terzo dell’importo investito. Viene così innalzata al 30% e fino a 3 anni  la quota detraibile annualmente dall’Irpef in modo che un nuovo socio, che sia persona fisica o impresa, che entra nel capitale di una startup, possa scontare dalle proprie tasse un terzo della somma versata nell’aumento di capitale nella dichiarazione dei redditi del 2018. E, se sommiamo quest’ultima novità sugli investimenti al piano per l’Industria 4.0, allo Spid e digitalizzazione della Pubblica Amministrazione, alla possibilità di poter creare nuove startup online e senza notaio, alla costituzione del Team sulla trasformazione digitale, ci viene lecito pensare che finalmente la direzione intrapresa potrebbe essere quella giusta: portare l’Italia a poter competere in maniera più incisiva alla pari di altri paesi europei nei grandi mercati internazionali. 

Gianluca Cimini

]]>
Thu, 9 Feb 2017 19:37:21 +0000 http://www.gianlucacimini.it/mc/498/1/ecosistema-delle-startup-italiane-a-fine-2016-bene-ma-non-benissimo---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Crescita continua per l’IoT: nel 2020 metà dei dispositivi saranno intelligenti - di Gianluca Cimini http://www.gianlucacimini.it/mc/497/1/crescita-continua-per-l-iot-nel-2020-meta-dei-dispositivi-saranno-intelligenti---di-gianluca-cimini

Ricerche di settore ci descrivono già da ora una situazione di continua crescita per il futuro del cosiddetto: ”Internet of the Things” con tassi di crescita del 16% entro il 2020 e spese che si pensa possano arrivare, per investimenti hardware e di produzione, a più di 1.3 trilioni di dollari. Cifre altissime grazie a potenziali di crescita che si muovono sulla fiducia che un mondo più connesso, dall’auto alla casa e alle tecnologie che viviamo ogni giorno, sarà quello in cui vivremo negli anni a venire. Gran parte degli investimenti futuri su questo importante campo andranno, secondo una autorevole ricerca dell’International Data Corp (IDC), verso l’hardware che corrisponde alla più grande categoria di investimenti nel settore dell’IoT. Con una spesa vicina ai 400 bilioni di dollari entro il 2020, la maggior parte degli acquisti di hardware sarà costituita da versioni più aggiornate e performanti di moduli e sensori capaci di connettersi a server remoti per processare le varie operazioni richieste. Al crescere dell’hardware corrisponderà inoltre, a mio avviso, di conseguenza, un aumento della categoria software che creerà nuovi e più funzionali servizi per tutti: dalle assicurazioni, alla vendita al dettaglio, all’assistenza sanitaria, tanto per fare qualche esempio. Nel complesso le varie opportunità offerte dall’IoT apriranno un mercato totalmente nuovo e variegato a disposizione di venditori ed utilizzatori finali. La ricerca pubblicata ci dice inoltre che, nei prossimi cinque anni, sarà l’industria manifatturiera quella che darà più fiducia all’Internet delle cose con investimenti maggiori rispetto a qualunque altra categoria. Allo stesso tempo molte altre realtà seguiranno il trend in rialzo dell’IoT, investimenti arriveranno da molte direzioni differenti che rappresentano casi di utilizzo comuni a tutti i settori industriali, come , ad esempio, i veicoli collegati e gli edifici intelligenti, che saranno sicuramente i segmenti che cresceranno di più nei prossimi cinque anni. La crescita di questi prodotti, che siano sensori singoli o dispositivi più articolati, è strettamente legata anche alla riduzione dei costi unitari dei vari elementi hardware. Anche per questo entro il 2021, sempre secondo il rapporto IDC, il numero di dispositivi IoT arriverà ad oltre 46 miliardi di unità con una crescita rispetto ad oggi del 200%.

Sono sempre di più i dispositivi intelligenti al mondo, si pensi, infatti, che una ricerca commissionata dalla Interactive Advertising Bureau (IAB) ci riporta che due terzi degli Americani possiedono almeno un dispositivo IoT. I dispositivi più diffusi sono le SmartTV e i dispositivi di Streaming (un 47% degli intervistati), a seguire dispositivi sanitari di localizzazione (24%) e oggetti per il controllo remoto delle case intelligenti (17%). Tra gli utilizzatori, i prodotti IoT spopolano in quella fascia d’età compresa tra i 18 e i 34 anni, con una media di reddito superiore alla media nazionale americana e studi universitari in corso o completati. Cambiando continente la crescita del mercato dell’Internet delle cose in Cina sarà indirizzato specialmente all’agricoltura con sistemi in grado di misurare la giusta quantità di fertilizzanti e sostanze nutritive delle piante, riducendo allo stesso tempo la somministrazione di acqua e di concime, permettendo così un discreto risparmio agli agricoltori.

La proliferazione e l’affermazione a livello mondiale dei dispositivi legati all’Internet delle cose porterà con sé molte nuove sfide: in primis, molti dei sistemi di analisi e di database odierni sono stati creati con un architettura pre-IoT e sono incapaci di gestire l’era dei Big Data. Questi aspetti includono, quindi, rinnovati sistemi di analisi progettati per funzionare su macchine meno performanti, come i routers. Un’altra grande sfida si giocherà sulla creazione di standard comuni per riuscire a fare dialogare i vari dispositivi IoT. Al giorno d’oggi questo è uno dei maggiori problemi che personalmente ho notato, con produttori che stanno cercando di creare un vasto mondo di prodotti intelligenti capaci di dialogare tra loro ma che,  per ora, faticano il più delle volte ad interfacciarsi se sviluppati su piattaforme che non sono simili . Non di meno conto sarà risolvere, o almeno arginare, i problemi di sicurezza che i dispositivi intelligenti presentano: l’anno appena passato ha visto un numero sempre maggiore, infatti, di attacchi hacker di tipo DoS, distribuiti tramite botnet, che hanno sfruttato le vulnerabilità dei dispositivi IoT per trasformarli in zombie intelligenti. E da questo tipo di problematiche, nel medio termine, minacce future potrebbero interessare anche il furto di dati aziendali o personali. Ricordando che molti devices sono stati lanciati sul mercato per seguire il trend del momento senza, però, essere adeguati a possibili minacce di sicurezza, si palesa così per molti produttori IoT l’impossibilità di proteggere tali prodotti, perché magari non dispongono della memoria e della capacità di elaborazione necessarie per essere aggiornati. Questo dovrebbe farci pensare su quanto in effetti la sicurezza dell’IoT sia ancora lontana. Gli oggetti casalinghi smart si connettono alla rete in modo seriale ed automatico rispondendo a porzioni di codice e a software Open Source, protetti solitamente con password deboli senza risorse hardware o software per proteggersi dalle intrusioni (né firewall né antivirus e nemmeno una connessione https la cui implementazione renderebbe il dispositivo più costoso e lento nel rispondere). Il futuro dell’IoT, anche solo per creare maggiore fiducia negli utilizzatori finali dei prodotti, dovrebbe, quindi , mettere in cima alla lista dei problemi da affrontare, secondo me, proprio la questione della sicurezza, ma da questo punto di vista gli investimenti su questo fronte non sembrano essere ancora adeguati.

Gianluca Cimini

]]>
Mon, 6 Feb 2017 17:18:17 +0000 http://www.gianlucacimini.it/mc/497/1/crescita-continua-per-l-iot-nel-2020-meta-dei-dispositivi-saranno-intelligenti---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Opportunità di investimento 2017: il passaggio sicuro da FinTech ad EdTech. http://www.gianlucacimini.it/mc/496/1/opportunita-di-investimento-2017-il-passaggio-sicuro-da-fintech-ad-edtech

Nel mondo in cui viviamo, in un periodo di quella che chiamano la quarta rivoluzione industriale, se guardiamo al mondo della finanza, è sulla fornitura di servizi e prodotti finanziari attraverso le più avanzate tecnologie dell'informazione (ICT) che il nostro occhio si posa. Le imprese tecnofinanziarie in poco tempo sono riuscite a rivoluzionare il mondo delle banche riuscendo a cogliere il cambiamento della società e le nuove domande dei consumatori sempre più affamati di servizi innovativi e digitali. La trasformazione è avvenuta seguendo questo principio: cose di facile comprensione, di grande accessibilità e di immediato utilizzo. In pochissime parole il Fintech (derivante dall’inglese Financial Technology) è un settore composto da società che usano la tecnologia per rendere i sistemi finanziari più efficienti. L’area Fintech, attualmente, include una svariata tipologia di attività diverse: crowdfunding, peer-to-peer lending, asset management gestito con algoritmi, gestione dei pagamenti, credit-scoring, valute digitali o cripto-valute (come ad esempio il BitCoin). Così, con un pizzico di innovazione e tecnologia aggiunti ai più tradizionali servizi, la tecnologia finanziaria europea ha attratto investimenti, nei primi nove mesi del 2016 , per circa 1,1 miliardi (secondo il report realizzato per la nuova edizione del “State of European tech” dal fondo di investimento “Atomico”). Gli investimenti globali , invece, nelle varie compagnie FinTech hanno raggiunto i 19,1 miliardi di dollari nel 2015, 13,8 dei quali provengono da fondi di venture capital, per una crescita rispetto al 2014 del 106%. Ma gli investitori per gli anni a venire, nonostante non ci siano segni di cedimento per la tecnofinanza, guardano a prospettive meno volatili e meno legate alla situazione geopolitica mondiale cercando di evitare quei mercati, come quello finanziario, troppo saturo di offerte e a rischio di stabilità. Da queste analisi esce un nuovo protagonista per chi è interessato a grandi opportunità di investimento nel 2017: il campo della formazione ed in questo ambito il nome è uno solo:” EdTech.”

Il settore dell’educazione, che si avvia fortemente verso la sua più completa digitalizzazione, è un mercato immenso e, probabilmente, diventerà il più remunerativo di sempre con il passare degli anni. Gli investitori negli anni passati hanno preferito focalizzarsi su altre opportunità di investimento (ad esempio, nel solo 2015, sono stati più gli investimenti su Uber che sull’intero settore EdTech), ma ora che si parla di circa 5 trilioni di dollari all’anno di investimenti mondiali, tutto sembra cambiare. Proprio come la digitalizzazione ha trasformato il settore dei servizi finanziari così l’ascesa di nuovi metodi di apprendimento sta finalmente cambiando anche le aule e le scuole di oggi con professori che non si accontentano di leggere e spiegare libri di testo fisici o fotocopie di carta, ma utilizzano sempre di più schermi digitali per illustrare gli aspetti delle loro lezioni e servizi interattivi, anche online, più approfonditi ed aggiornati che permettono agli studenti di conoscere, interagire ed imparare in un modo completamente nuovo. Viviamo in un mondo dove ormai i giovani sono tutti nativi digitali e quelle stesse tecnologie che utilizzano ogni giorno a casa ed in mobilità, con tablet e smartphone, sono fortemente richieste ed attese anche all’interno dei vari istituti di istruzione. In molte città i tablets, infatti, sono diventati un’ aggiunta essenziale alla scuola ordinaria grazie ai nuovi software che li trasformano in formidabili oggetti per l’apprendimento. La tecnologia dietro a queste innovazioni nasce, per ora, da un gruppo limitato di aziende informatiche, che stanno raggiungendo cifre molto ragguardevoli di profitto grazie ad un mercato ancora giovane. L’EdTech è diventato così uno dei settori più caldi della Silicon Valley grazie alle aziende che condividevano la visione comune che l’educazione, una delle industrie più resistenti al cambiamento, potesse ottenere diversi benefici dall’innovazione tecnologica. Fondamentale è capire, inoltre, quanto importante sarà il settore dell’informatica per gli anni a venire, e per chi ancora non lo sapesse, sarà fondamentale dal momento che ogni settore, dalle risorse umane, all’assistenza sanitaria, alla moda, avrà sempre più bisogno di lavoratori qualificati in informatica, tant’è vero che una formazione non focalizzata sulle nuove tecnologie digitali porterà un deficit importante per tutti i giovani che in futuro saranno in cerca di un nuovo lavoro. Non è un caso, infatti, che molte start-up si stiano avventurando proprio su questo settore, da Raspberry Pi a Blackbullion passando per Knowledgemotion solo per citarne qualcuna, chi ha voglia di investire dovrà tenere d’occhio proprio le innovazioni nel campo dell’istruzione d’ora in poi. Una di queste, per esempio, si chiama “Udemy” ed è stata creata con la missione di democratizzare l’educazione offrendo in un mercato online la possibilità di creare e vendere le proprie conoscenze grazie alla formazione di classi di apprendimento che vanno dai 20 ai 100 dollari e che affrontano temi come la programmazione o l’uso di particolari software.

Tutto passa per il digitale e preparare adeguatamente i giovani a questo mondo è fondamentale per donare posti qualificati a persone che vogliono crescere e mettersi in gioco ma, oggi, i dati ci dicono, invece, che solo una piccola percentuale delle scuole offre classi di studio indirizzate verso l’informatica e la digitalizzazione (circa il 10% delle scuole della Gran Bretagna, chissà quante in quelle italiane, ma dubito che ce ne siano di più). Se questo non cambierà il prima possibile, donando fin dalle scuole quella formazione digitale ormai fondamentale per il futuro lavorativo, il divario tra gli studenti che hanno queste skills e quelli che invece non le hanno acquisite, sarà sempre più difficile da colmare. Oltre ad essere l’unico settore della tecnologia ad avere accesso diretto a scuole ed università, l’EdTech, a differenza degli alti e bassi dei mercati finanziari, risulta, quindi, oggi il settore più sicuro per tutti gli eventuali investitori, al riparo da molte delle pressioni del paesaggio geopolitico più ampio. L’EdTech è destinato a divenire il settore digitalizzato più grande e redditizio di sempre potendo offrire contenuti in tutto il mondo adattabili ai vari paesi ed istituzioni educative, bisognerà proprio tenerlo d’occhio.

Gianluca Cimini

]]>
Tue, 24 Jan 2017 19:47:42 +0000 http://www.gianlucacimini.it/mc/496/1/opportunita-di-investimento-2017-il-passaggio-sicuro-da-fintech-ad-edtech gianlucacimini2016@gmail.com (Gianluca Cimini)
Non solo BitCoin, il buon uso della Blockchain nelle catene di distribuzione - di Gianluca Cimini http://www.gianlucacimini.it/mc/495/1/non-solo-bitcoin-il-buon-uso-della-blockchain-nelle-catene-di-distribuzione---di-gianluca-cimini

Nata con l’auspicio di migliorare la visibilità e il controllo sulle merci e prodotti mentre venivano transitati da un punto A ad un punto B, la catena di distribuzione (anche detta supply chain in inglese) è stata fin da subito un successo e ha portato avanti una piccola rivoluzione.
La situazione, da quando ormai due secoli fa si è imposta nel mercato, è cambiata e quelle stesse regole del mercato non sono più attuabili a causa di una produzione aumentata a dismisura e a cicli di approvvigionamento che sono diventati sempre più frammentati, complessi e geograficamente agli antipodi. Per risolvere il problema di una filiera sempre più oscura e difficile da gestire, una nuova tecnologia emergente si appresta a portare, dicono, trasparenza ed efficienza ad un certo numero di diversi settori industriali.
La caratteristica principale delle catene di distribuzione è che possono estendersi per centinaia di stadi e decine di aree geografiche rendendo molto difficile a volte tracciare i singoli eventi o svolgere indagini approfondite su incidenti che possono accadere durante una delle fasi del trasporto, inoltre gli acquirenti finali non possiedono un modo sicuro e affidabile per valutare in maniera chiara il reale valore di un bene acquistato a causa di quella mancanza di trasparenza della catena di fornitura che ci riporta solo il prezzo finale del prodotto, ma non ci dà nessuna informazione precisa sui vari costi di produzione e trasporto dal punto iniziale al punto finale. Per non dimenticare quegli elementi legati alla distribuzione ancora più difficili da valutare come il danno ambientale che si viene a creare nella produzione di merci e prodotti, oppure tutte quelle attività illecite come la contraffazione, il lavoro forzato e le cattive condizioni nelle fabbriche, oppure la crescita di gruppi criminali legati alla gestione di particolari risorse primarie (come il caso del coltan utilizzato per telefoni cellulari e altri prodotti tecnologici).

La nuova tecnologia di cui parlavo si chiama “blockchain” e si presenta come un libro mastro della distribuzione capace di assicurare trasparenza e sicurezza grazie alla registrazione di tutte le operazioni di trasferimento su un registro delle operazioni che identificherebbe tutti i soggetti coinvolti e le informazioni aggiuntive sul prodotto come prezzo, data, luogo, qualità e stato del prodotto che potrebbero essere rilevanti per la gestione della catena di fornitura.
Un registro pubblico e decentralizzato, inoltre, che renderebbe impossibile sia la manipolazione dei dati a proprio vantaggio, sia detenere la proprietà singola del libro contabile. La cosiddetta “catena di blocchi” essendo una base di dati distribuita mantiene in modo continuo una lista crescente di record, i quali, facendo riferimento a record precedenti presenti nella lista stessa, resistono ad eventuali manomissioni.
Sfruttando la tecnologia peer-to-peer ognuno può prelevarlo dal web e diventare un nodo della stessa rete. Nata in stretto contatto con la “criptovaluta” virtuale Bitcoin, la tecnologia “blockchain” per sua natura garantisce un elevato livello di sicurezza e si presta, quindi, ad essere utilizzata in tutti gli ambiti in cui è necessaria una relazione tra più persone proprio perché ogni transazione viene sorvegliata da una rete di nodi che ne garantiscono la correttezza e ne possono mantenere l’anonimato.
Il sistema di “time stamping” decentralizzato, inoltre, non necessita di una sola ed unica risorsa centrale (come un server) ed impedisce che le singoli transazioni una volta effettuate possano essere cancellate o modificate. Tutti possono controllare la catena, ma nessuno la può possedere, in questo è la forza della “blockchain”. Il sistema migliore per garantire sicurezza, visibilità e resistenza nel tempo alle transazioni è semplicemente renderle pubbliche e concatenarle tra loro: più aumentano, inoltre, gli utilizzatori, più l’algoritmo di protezione si rafforza automaticamente.

Nel 2014 venture di tutto il mondo hanno investito circa mezzo miliardo di dollari in startup che applicavano la tecnologia Blockchain a diversi settori. L’interesse è altissimo e si sta spostando dai mercati finanziari, dove è maturato, al resto. C’è già chi scommette che questo sarà il nuovo boom del tech dei prossimi anni. L’interesse aumenta perché comporta un modo completamente nuovo di intendere le relazioni umani, gli scambi commerciali, la tutela del valore prodotto da ognuno. Tale tecnologia è attualmente in prova in molte grandi società: da “IBM”, per gli usi possibili nell’ambito dell’IoT (Internet of Things), a “Everledger” che si occupa di portare trasparenza nel difficile mercato di approvvigionamento di diamanti che da sempre contribuisce ad un commercio legato allo sfruttamento di persone e risorse prime e alimenta diversi scontri violenti specialmente in Africa. Capire come un bene viene prodotto aiuta a promuovere inoltre pratiche più responsabili sul modello di lavoro che tanti lavoratori sono costretti a vivere, aprendo un occhio sul fenomeno della schiavitù e dello sfruttamento di tanti paesi del terzo mondo. La tecnologia del blockchain ha, a mio avviso, proprio quel potenziale per trasformare l’intera catena di produzione e modificare il nostro modo di produrre e commercializzare e consumare i nostri prodotti. Attraverso trasparenza e tracciabilità, ogni prodotto avrà una propria identità nella catena di distribuzione e fornirà informazioni a riguardo facilmente accessibili da tutti con l’augurio che in questo modo anche le nostre economie possano diventare più sicure ed affidabili attraverso una tecnologia che offre una gamma di applicazioni tendenzialmente infinite.

Gianluca Cimini

]]>
Fri, 20 Jan 2017 19:01:38 +0000 http://www.gianlucacimini.it/mc/495/1/non-solo-bitcoin-il-buon-uso-della-blockchain-nelle-catene-di-distribuzione---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)