gianlucacimini.it Rss http://www.gianlucacimini.it/ Coltiviamo i nostri sogni con coraggio. Avanti, sempre! - Gianluca Cimini it-it Tue, 20 Jun 2017 18:08:01 +0000 Fri, 10 Oct 2014 00:00:00 +0000 http://blogs.law.harvard.edu/tech/rss Vida Feed 2.0 gianlucacimini2016@gmail.com (Gianluca Cimini) gianlucacimini2016@gmail.com (Gianluca Cimini) Mediacontent http://www.gianlucacimini.it/vida/foto/logo.png gianlucacimini.it Rss http://www.gianlucacimini.it/ Stampa beffarda: la NSA può risalire a chi sei grazie alla tua stampante http://www.gianlucacimini.it/mc/531/1/stampa-beffarda-la-nsa-puo-risalire-a-chi-sei-grazie-alla-tua-stampante

Li chiamano “tracking point” e sono i marcatori che molte stampanti a colori imprimono sulle stampe effettuate registrando in questo modo tutte le informazioni che permettono di risalire non solamente al momento esatto in cui il documento è stato stampato, ma anche al numero della stampante usata. Niente di preoccupante se non si ha qualcosa da nascondere, ma abbastanza rilevante se i documenti stampanti sono rapporti Top Secret dell’Agenzia della Sicurezza Nazionale Americana (NSA). Il sistema di “marchiature” delle stampe è conosciuto da diversi anni, nonché avversato da molte associazioni americane che si battono per la libertà di espressione, ed è stato utilizzato in questo caso per risalire ad un documento segreto in cui si accusava la Russia di Vladimir Putin per presunte “interferenze” nel corso delle ultime elezioni presidenziali statunitensi. Tale documento, dopo essere stato trafugato, o venduto, è stato fornito, per ancora non chiari motivi, al famoso sito di informazioni “The Intercept” (diretto da Glenn Greenwald, un giornalista specializzato in inchieste di questo tipo e che già lo scorso anno aveva denunciato i sistemi di sorveglianza di massa dell’NSA grazie alla collaborazione di Edward Snowden).

Fin qui tutto il passaggio di informazioni era stato perfetto ma, a questo punto, un errore gravissimo ha portato gli agenti dell’NSA a risalire alla fonte del “leak” attraverso i già citati marcatori di stampa. E così, grazie alla circolazione di una scansione in PDF della stampa originale trafugata da qualche talpa, si è giunti al nome del contatto che fino a qualche mese fa collaborava con la National Security Agency, tale Reality Leigh Winner, che ora si trova in stato di arresto rischiando una condanna a 10 anni di carcere. Da giornalisti così esperti e specializzati nei temi della sorveglianza mi sarei aspettato che fossero capaci di proteggere le loro fonti, ma anche i migliori possono sbagliare. Il tema è molto importante e dibattuto, poiché la serie di attacchi nei confronti dei sistemi di voto elettronici nel corso delle elezioni presidenziali USA del 2016,( ne avevo parlato già mesi fa), aveva acceso i riflettori sui possibili brogli elettorali che poi, con la presunta ingerenza del governo russo di Putin, hanno portato alla vittoria il candidato Donald Trump, e così, una dimenticanza così importante ha portato, nel giro di poche ore dalla pubblicazione della scansione PDF, all’arresto dell’informatrice che aveva fornito quel documento Top Secret proveniente dagli uffici dell’NSA. Ma la certezza che quei file non possano essere stati portati fuori dagli uffici del governo e stampati solo in un secondo momento da un computer qualunque da cosa si evince? Il documento trafugato proviene da una stampante con numero di modello 54, numero di serie 29535218, ed è stato stampato il 9 maggio 2017 alle 6:20. La NSA è risalita così a chi utilizzava la stampante in quel momento, ma come?

La risposta risiede proprio nei famigerati “tracking dot” (o point), una serie di puntini di colore giallo che le stampanti a colori inseriscono in qualsiasi stampa. Praticamente invisibili ad occhio nudo per chi guarda il foglio di carta, ma visibili ai più attenti e specialmente a chi sa dove e come cercarli. E così risalire alla stampante usata attraverso il suo numero di serie e anche all’esatto momento in cui la stampa è stata eseguita, per quanto possa sembrare difficile, non è irrealizzabile. E nel momento in cui quella pagina stampata viene trasformata in una versione digitale attraverso uno scanner gli stessi puntini gialli vengono impressi indelebilmente sul file pronti ad essere analizzati da occhi esperti e non solo. Sul web infatti (per esempio in inglese all’indirizzo: https://w2.eff.org/Privacy/printers/docucolor/) ho trovato una guida molto esaustiva, parte del progetto “Machine Identification Code Technology project”, che spiega come leggere la data, l’ora ed il numero di serie della stampante dai codici di monitoraggio che vengono impressi sulla carta al momento della stampa.

Alcune stampanti imprimono una griglia rettangolare di 15 punti per 8 punti gialli minuscoli su ogni pagina a colori. La stessa griglia viene stampata ripetutamente su tutta la pagina ma le ripetizioni della griglia sono leggermente compensate l’una dall’altra, in modo che ciascuna griglia sia separata dalle altre. La griglia, inoltre, viene stampata parallela ai bordi della pagina. A causa del loro limitato contrasto con lo sfondo, i puntini non sono solitamente visibili all'occhio nudo sotto la luce bianca. Possono essere visibili, però, mediante ingrandimento (utilizzando una lente d'ingrandimento o un microscopio) oppure illuminando la pagina con una luce azzurra anziché una luce bianca. La luce blu pura provoca, infatti, la comparsa dei famosi punti gialli. A questo punto, utilizzando sia l'ingrandimento sia l'illuminazione sotto la luce blu, la maggioranza degli individui, con un buon occhio, sarà in grado di vedere i punti identificativi di cui abbiamo parlato, provare per credere. 

Gianluca Cimini

]]>
Tue, 20 Jun 2017 18:08:01 +0000 http://www.gianlucacimini.it/mc/531/1/stampa-beffarda-la-nsa-puo-risalire-a-chi-sei-grazie-alla-tua-stampante gianlucacimini2016@gmail.com (Gianluca Cimini)
La privacy dei cittadini e degli studenti al centro del lavoro del Garante http://www.gianlucacimini.it/mc/530/1/la-privacy-dei-cittadini-e-degli-studenti-al-centro-del-lavoro-del-garante

Con l’entrata in vigore, a maggio del 2018, del nuovo Regolamento europeo sulla protezione dei dati personali, offline ma soprattutto online, si cercherà di avere un metodo ancora più efficace per rispondere alle tante nuove sfide dettate dagli aggiornati modelli di crescita economica dei paesi dell’unione, nonché dalle esigenze di tutela sempre più avvertite dai cittadini dell’Europa. L’anno che si è concluso ormai da qualche mese ha visto un lavoro continuo ed impegnativo da parte dell’Autorità Garante per la Protezione dei Dati Personali, in un documento presentato qualche giorno fa, è stato fatto così il punto sia dei risultati ottenuti fino ad oggi, sia degli obiettivi futuri e di come questi verrano perseguiti. Dal cyberbullismo, alla lotta al terrorismo, alla crescita del crimine informatico, all’espansione dei Big Data e ai rischi della sorveglianza di massa, passando infine per le nuove tecnologie del mondo del lavoro e la richiesta di maggiore trasparenza nelle Pubbliche Amministrazioni, gli ambiti in cui il Garante si è trovato ad intervenire sono tanti e tutti di rilevanza nazionale, ma non solo. Per farci un’idea dell’operato basta guardare i numeri del 2016 ossia: 561 provvedimenti collegiali, il riscontro ad oltre 4.600 quesiti, reclami e segnalazioni (in particolare al settore del marketing telefonico, credito al consumo, videosorveglianza, e concessionari di pubblico servizio, recupero crediti, settore bancario e finanziario, assicurazioni, lavoro, giornalismo, enti locali e sanità e servizi di assistenza sociale) e 277 ricorsi decisi (soprattutto riguardanti editori, banche e società finanziarie, datori di lavoro pubblici e privati, sistemi di informazione creditizia, PA e concessionari di pubblici servizi).

"Stiamo morendo per eccesso di informazioni" è una frase del critico d’arte italiano Federico Zeri che oggi appare profetica. Davanti ad una Rete sconfinata che non dimentica nulla, noi utenti virtuali continuiamo a riversare sul web, sulle chat e sui social media pezzi della nostra vita, con conseguenze non sempre prevedibili e non di rado tragiche. E così le notizie di ricatti, vendette, umiliazioni pubbliche, furti di identità sono ormai cronaca quotidiana sul web e spesso i colpevoli sono le stesse vittime, incapaci di trattenere il desiderio di trovare un momento di notorietà su Internet. Un atteggiamento favorito e condiviso da un sistema in cui la vera merce sono proprio i dati e le informazioni che vengono venduti e scambiati più o meno legalmente. In relazione a questo una delle attività principali e più intense di cui si è occupata il Garante è stata proprio la protezione dei dati online degli utenti, a partire dai grandi motori di ricerca (dove Google si è impegnata a rendere conforme il trattamento dei dati dei suoi utenti alla normativa italiana) e dai social network (con Facebook che si è imposto di bloccare i profili falsi ed assicurare più trasparenza e controllo agli utenti).

Sul fronte della scuola molto è stato fatto per aiutare gli studenti, le famiglie, i professori e la stessa amministrazione scolastica a muoversi agevolmente nel mondo della protezione dei dati, grazie alla pubblicazione di un vademecum che tenta di spiegare in modo semplice ed efficace quali sono i comportamenti più corretti e meno a rischio da tenere in vari contesti, toccando temi di attualità, dal cyberbullismo alla videosorveglianza, dalle foto pubblicate online all'identità digitale. Dalla guida si evince così l’obbligo per le scuole di informare sempre i diretti interessati sui dati raccolti, sul modo in cui sono raccolti, su come sono utilizzati e a quale fine. Si specifica, inoltre, per quanto riguarda la raccolta dei dati personali necessari al perseguimento di specifiche finalità istituzionali, che le scuole non sono tenute a chiedere il consenso degli studenti. Nonostante questo, ogni persona ha diritto a conoscere se sono conservate informazioni che la riguardano, di apprenderne il contenuto, di farle rettificare se erronee, incomplete o non aggiornate (rivolgendosi direttamente al titolare del trattamento o in caso di riscontro non adeguato sia al Garante sia alla magistratura ordinaria). Le istituzioni scolastiche devono inoltre prestare particolare attenzione a non diffondere dati idonei a rivelare lo stato di salute o giudiziario degli studenti o altri dati personali sensibili, attraverso i tabelloni che riportano ad esempio le votazioni di fine anno o tramite circolari o altri documenti non indirizzati a soggetti specifici. Sul tema delle nuove tecnologie e della condivisione della propria vita tramite social e web il Garante punta, giustamente, l’attenzione sui rischi legati ad una sovraesposizione eccessiva, in particolare al fatto che spesso molte azioni apparentemente innocue e innocenti svolte sui social possono portare a conseguenze anche drammatiche. L’invito rivolto ai giovani, quindi, personale e anche delle istituzioni, è quello di utilizzare le nuove tecnologie con estrema attenzione per evitare il rischio di essere vittime di commenti di odio, cyberbullismo, sexting o altri tipi di ingerenze nella propria vita privata che possono, purtroppo come già è successo, degenerare in situazioni ancora peggiori. Quando e se ciò dovesse avvenire, il consiglio è sempre quello di rivolgersi a compagni, famigliari, professori ed amici, nonché al Garante e alle altre autorità competenti, per risolvere il prima possibile la questione e ripristinare la reputazione ingiustamente lesa. 

Gianluca Cimini

]]>
Tue, 13 Jun 2017 07:28:31 +0000 http://www.gianlucacimini.it/mc/530/1/la-privacy-dei-cittadini-e-degli-studenti-al-centro-del-lavoro-del-garante gianlucacimini2016@gmail.com (Gianluca Cimini)
Bluetooth 5, evoluzione presente che guarda al futuro, e all’internet of things http://www.gianlucacimini.it/mc/529/1/bluetooth-5-evoluzione-presente-che-guarda-al-futuro-e-all-internet-of-things

Ufficializzato nelle sue specifiche definitive a fine 2016, il Bluetooth è ormai realtà nel mercato, anche se i tempi di espansione della nuova tecnologia stanno allungandosi a causa di una adozione rallentata dai grandi colossi della tecnologia. Nato nel 1994 grazie all’azienda svedese Ericsson che volle unificare le tecnologie senza fili di quel momento (proprio come il re Aroldo I Dente Azzurro - da qui bluetooth - che unificò i popoli vichinghi del frammentato regno di Danimarca sotto un'unica nazione nel X secolo) il Bluetooth si affermò velocemente per condividere i nostri ricordi (foto, audio, suonerie, documenti) con le persone, e ora, con il nuovo standard, anche con gli oggetti intelligenti che ci circondano. Infatti, una volta che il nuovo standard si diffonderà nel mondo, inevitabilmente andrà ad influire su quel fenomeno dell’Internet of Things che è destinato a crescere esponenzialmente nei prossimi anni: il nuovo Bluetooth salverà, inoltre, anche le nostre reti WIFI casalinghe, ormai congestionate dai tanti dispositivi collegati, controllando gran parte dei dispositivi dell'Internet delle Cose che oggi si connettono al WIFI come altoparlanti, televisioni o macchine del caffè, fornendo soluzioni destinate all'integrazione non solo in ambito domestico, ma anche aziendale ed industriale. Lo stesso Mike Powell, Direttore del Bluetooth SIG (Special Interest Group), non ha fatto mistero sul fatto che il Bluetooth 5 contribuirà in maniera significativa all'espansione del mercato Io: grazie, inoltre, a più agevoli canali di comunicazione con bacon situati nei luoghi più disparati e ad una connettività wireless sempre più impiegata per fornire servizi location-based. La nuova specifica dovrebbe rendere anche i "beacon Bluetooth" più efficienti. Si tratta di una tecnologia che consente ai dispositivi Bluetooth di trasmettere e ricevere piccoli messaggi entro brevi distanze (una soluzione usata dai negozi in alcune parti del mondo per contattare potenziali clienti e informarli di offerte in corso). Ha dichiarato Mark Powell: “Bluetooth sta rivoluzionando il modo in cui le persone vivono l’esperienza dell’IoT. Bluetooth 5 continua a guidare questa rivoluzione offrendo connessioni IoT affidabili e incentivando l’adozione dei beacon, che a loro volta ridurranno le barriere di connessione, consentendo una perfetta esperienza dell’IoT”.

Più dati e un ampio raggio di trasmissione in più e consumi ridotti in termini pratici. Il nuovo standard, almeno sulla carta, copre un'area quattro volte maggiore, è due volte più veloce (bandwidth di 2 Mbps) e ha una capacità trasmissiva otto volte superiore rispetto al 4.2 LE, che ha avuto una larga diffusione in questi anni nel mercato smartphone. Proprio nel mondo degli smartphone vedremo il primo dispositivo che implementerà questa nuova tecnologia (ossia il Samsung Galaxy S8 seguito successivamente nei trimestri a seguire rispettivamente dallo Xiaomi Mi 6 e dal Sony Xperia XZ Premium). Non basterà, però, solamente utilizzare degli smartphone adibiti alla nuova tecnologia se non ci sono prodotti ad hoc in grado di sfruttare al meglio tutte le nuove caratteristiche, e così il successo di questa nuova tecnologia si baserà anche su quanti e quali dispositivi bluetooth 5 verranno messi in commercio nel prossimo anno, in primis speaker audio portatili e cuffie wireless (che potrebbero sfruttare, per esempio, la nuova funzionalità di doppio invio dell’audio capace di separare l’audio dei contenuti multimediali da quello notifiche, oppure quello di utilizzare due speaker allo stesso momento). Inoltre, grazie al Bluetooth a bassa energia (BLE) si può ridurre maggiormente lo spreco di energia e la dipendenza dalla ricarica dei vari dispositivi. La quinta generazione del bluetooth è , infatti, capace di mantenere una larghezza di banda di oltre 100 metri: parlare a mani libere rischiando di perdere la connessione perché il cellulare è troppo distante da noi sarà ormai un ricordo del passato. Sono state anche perfezionate le capacità di adattamento del segnale, cosa che permette di ridurre le interferenze con altre connessioni wireless come WiFi e LTE, evitando la congestione e garantendo maggiori prestazioni. Uno dei vantaggi più importanti, anche se magari non visibile a molti, sarà un livello di sicurezza maggiore nella trasmissione dei dati: l'informazione che passa da dispositivo a dispositivo è cifrata (in conformità agli standard di difesa del governo degli Stati Uniti e valido soprattutto per i dispositivi IoT), perciò il Bluetooth è particolarmente raccomandato per i dispositivi che controllano la nostra salute o i nostri pagamenti.

Grazie alla nuova velocità di tutte le operazioni possibili (che subirà un incremento notevole grazie alla velocità raddoppiata a 5120 kbps), questo potrebbe dire che magari diventerà più conveniente trasferire file tramite Bluetooth rispetto ai classici hard disk portatili o vecchie chiavette USB. Anche se il mercato Bluetooth 4-4.2 sopravviverà ancora per almeno un paio di anni, aspettiamo dunque di vedere quali grossi ed effettivi miglioramenti potrà portare Bluetooth 5, nel frattempo sicuramente vi converrà aspettare in caso abbiate intenzione di acquistare un dispositivo che utilizzi questa tecnologia, dal momento che difficilmente prima del 2018 il mercato si aprirà totalmente a questa nuova tecnologia: come dicevo il Galaxy S8 di Samsung è l’unico cellulare che, attualmente, supporta questo standard. Ma qualcosa comincerà a cambiare nei prossimi mesi, non sarà un’attesa troppo lunga.

Gianluca Cimini

]]>
Sun, 11 Jun 2017 12:47:14 +0000 http://www.gianlucacimini.it/mc/529/1/bluetooth-5-evoluzione-presente-che-guarda-al-futuro-e-all-internet-of-things gianlucacimini2016@gmail.com (Gianluca Cimini)
Deep and Dark, il Web che non tutti conoscono http://www.gianlucacimini.it/mc/528/1/deep-and-dark-il-web-che-non-tutti-conoscono

Prendendo spunto da un articolo pubblicato nei giorni passati su una delle maggiori testate giornalistiche italiane, si è accesa in me la curiosità di approfondire ciò che da sempre esiste, di cui da molto si parla, ma di cui pochi ancora conoscono sia le funzionalità sia i pericoli: mi riferisco al “Dark Web” quello che potrebbe essere a tutti gli effetti visto come un “mercatino della criminalità” a domicilio.

Perché, se da una parte si possono acquistare libri o film su Ebay o Amazon, allo stesso tempo su altri siti si possono comprare, fin troppo facilmente, armi o documenti falsi, acquistare droga o scambiarsi materiale pedopornografico. E tutto questo mi lascia alquanto sconcertato e preoccupato, proprio per la relativa facilità con cui tutte queste transazioni possano essere effettuate con le giuste conoscenze tecniche.

I dati, in questo caso, non certi, ci dicono quanto sia diffuso questo web sotterraneo: ogni cinque mila persone connesse c’è un utente che naviga sul Dark Web con l’Italia in pole position tra i paesi dove si rivela la maggiore densità di traffico: frequentato prevalentemente di notte da 3-400 mila utenti, soprattutto da giovani tra i 15 e 24 anni. “In questo underground, l’Italia è tra i più evoluti al mondo – ha spiegato all’Ansa Claudio Cilli, docente di Informatica alla Sapienza e consulente del governo per la cybersicurezza e delle Nazioni Unite nei settori delle tecnologie dell’informazione – Il paradosso è proprio questo: il nostro Paese è arretrato sotto l’aspetto della cyber security ed è all’avanguardia per quanto riguarda l’illegalità nel Dark”.

Il sistema che fa accedere alla parte più oscura del web prende l’immagine di una cipolla (e da qui il suffisso del dominio “.onion”) per rappresentare come funziona questo sistema in cui le diverse “sfoglie” della cipolla rappresentano i vari server di tutto il mondo su cui si appoggiano, per solo pochi secondi, i vari siti di merce illegale. Saltellando da un server all’altro sia gli utenti sia i siti illegali risultano così praticamente non rintracciabili. Per fare tutto questo si utilizza la rete di anonimizzazione TOR (acronimo di “The Onion Router”) un sistema gratuito che permette di nascondere il proprio indirizzo IP e la propria identità in Rete “rimbalzando” la connessione fra vari computer sparsi in tutto il mondo. Utilizzato non solo per accedere ad attività discutibili e illegali, ma anche per visitare siti “nascosti” che non si trovano facendo delle normali ricerche in Google.

Il web visibile, quello che utilizziamo tutti i giorni, è visibile solo perché indicizzato dai motori di ricerca (primo fra tutti, Google): non deve sorprendere che si tratti in realtà solamente di una piccola parte dei siti effettivamente online. Tutto ciò che non è visibile è invece parte del “Deep Web”. Non bisogna fare confusione infatti tra Deep Web, Web Sommerso o Invisibile, non indicizzata dai comuni motori di ricerca perché magari composta da nuovi siti, pagine web a contenuto dinamico, web software e siti privati aziendali; ed invece il Dark Web di cui sto approfondendo qui la conoscenza che si riferisce, invece, a quel sottoinsieme irraggiungibile attraverso una normale connessione internet senza far uso, come detto, di particolari software che lavorano su reti sovrapposte ad Internet chiamate genericamente “Darknet”.

Accedere a questi contenuti non è per niente difficile a mia sorpresa, basta installare determinati software sul computer, nati inizialmente con lo scopo di navigare in quasi totale anonimato online, per aprirsi ad un panorama tanto vario quanto agghiacciante: troppo facile registrarsi con un qualsiasi account su siti che offrono armi con matricole abrase (a partire da 600 euro), leggermente più difficile, ma non impossibile, rifarsi una nuova identità per ottenere un passaporto falso o una patente falsa (dove il prezzo si attesta sugli 800 euro). Tutto acquistabile attraverso un acquisto in bitcoin, la cripto moneta così tanto diffusa su internet per ogni tipo di acquisto. I prodotti vengono poi spediti, nel caso delle armi per esempio, con diversi corrieri espressi che consegnano al destinatario i vari pezzi del prodotto finale che deve essere solo rimontato alla fine. Facile, grazie ai vari tutorial che si trovano su internet, come il “meccano” che usavamo da bambini, ma tristemente più letale. Anima di questo Dark Web sono i forum dove gli hacker possono interagire tra loro (e lo fanno con un particolare linguaggio definito “Leet” e caratterizzato da molti caratteri non alfabetici e terminologie volgari) solo dopo aver acquisito una certa reputazione all’interno del forum ed accedere ai link che aprono le porte a qualunque commercio illegale. Esiste attualmente un unico modo per le polizie di tutto il mondo di entrare in contatto con questo mondo, ed è quello di infiltrarsi nei vari forum, acquisendo la fiducia dei criminali per poi riuscire ad incontrarli fuori dal mondo virtuale. Le indagini non hanno portato, però, mai grossi risultati poiché il sistema sembra ancora troppo perfettamente oscuro per indagini accurate, a volte ci si affida più agli errori comuni degli hacker per scovarli fuori dalla loro tana, è questo il caso di Ross Ulbricht, arrestato dall’FBI nel 2013 per il suo portale illegale “Silky Road” scovato solo perché si è connesso per qualche secondo ad un “server civetta” della polizia, oppure al caso di un giovane romano di 24 anni che ha avuto l’ottima idea di comprare un’arma illegale su internet e di postare il video del suo affare su YouTube. Una frontiera selvaggia quella del Dark Web dove non ci sono leggi e si traffica in tutto, senza attualmente possibilità di controllo. C’è da rimanere sconvolti oppure no?

Gianluca Cimini

]]>
Mon, 5 Jun 2017 19:16:10 +0000 http://www.gianlucacimini.it/mc/528/1/deep-and-dark-il-web-che-non-tutti-conoscono gianlucacimini2016@gmail.com (Gianluca Cimini)
Linac4: risolvere il mistero della materia oscura è il prossimo obiettivo del Cern http://www.gianlucacimini.it/mc/527/1/linac4-risolvere-il-mistero-della-materia-oscura-e-il-prossimo-obiettivo-del-cern

Potrebbe essere giunta la volta buona per risolvere i tanti misteri che avvolgono la cosiddetta “materia oscura”: materia, non solo di studio, di cui molti parlano, che alcuni  cercano, ma nessuno sa cosa sia. Di questo elemento così diffuso nell’universo sappiamo cosa non è e come non si comporta, ma nessuno per anni era mai riuscito ad osservarne direttamente una sola particella, almeno finché, ad Aprile 2017, due scienziati della Royal Astronomical Society dell'Università di Waterloo in Canada sono riusciti a catturare un’immagine della materia oscura sfruttando una lente non ottica, ma gravitazionale. Quello che quell’immagine ci riporta è praticamente “un ponte fra due galassie” con la materia oscura che funziona come collante tra le due. Il termine “materia oscura” in cosmologia si riferisce ad un’ipotetica componente di materia che non è direttamente osservabile, in quanto, diversamente dalla materia conosciuta, non emette radiazione elettromagnetica e si manifesta unicamente attraverso gli effetti gravitazionali, ed è proprio mediante misurazioni degli effetti gravitazionali che la sua massa genera sulla materia ordinaria, cioè sui corpi celesti e sulla luce nello spazio, che la sua presenza è stata rivelata. Senza addentrarmi troppo in termini tecnici il fenomeno utilizzato per catturare l’immagine si basa proprio sull’effetto fisico descritto dalla relatività generale di Einstein, per il quale, osservando la luce proveniente da un corpo celeste a grande distanza, tale luce viene deflessa dalla presenza di un altro oggetto di grande massa posto fra l’osservatore e la galassia. Una tecnica speciale attraverso la quale, ha dichiarato il coautore dello studio Seth Epps, “non solo siamo riusciti a vedere che questi filamenti di materia oscura sono presenti nell’universo, ma siamo riusciti ad osservare l’estensione di tali filamenti che connettono le due galassie”.

L’importanza della materia oscura è fondamentale per capire come funziona il nostro universo, dal momento che, secondo osservazioni sperimentali, si ipotizza che ne costituisca la grandissima parte, ossia quasi il 90% della massa presente nell’universo. Teorizzata per la prima volta nel 1933 dallo svizzero Fritz Zwicky durante lo studio delle galassie della Chioma e della Vergine ed approfondita poi vent’anni più tardi dall’astronoma americana Vera Rubin che riuscì a collezionare una serie di dati che dimostravano l'esistenza della materia oscura in tutte le altre galassie e non solo in quelle osservate da Zwicky. Molte sono le teorie dei fisici su cosa effettivamente possa essere la materia oscura: secondo le ipotesi più accreditate si tratta di particelle diverse dai “soliti” protoni, neutroni ed elettroni a noi noti, si tratterebbe invece di particelle molto pesanti che non emettono,  né riflettono, luce e attraversano come fantasmi la materia ordinaria. Quello che sappiamo con certezza, come già accennato, è cosa non è tale materia e quindi non è formata da buchi neri o nane brune.

Il resto dei misteri che circondano questa immensa parte di universo potrebbe, però , trovare alcune risposte a partire dal 2021 quando al CERN entrerà in funzione a pieno regime il nuovo acceleratore lineare di particelle Linac4 (un macchinario costato circa 82 milioni di euro, di quasi 90 metri, posizionato 12 metri sotto il suolo, costruito in 10 anni ed inaugurato proprio in questi giorni). Elemento fondamentale al CERN, un acceleratore lineare di particelle è il primo e più importante elemento della catena da cui poi partono tutti gli esperimenti successivi: al suo interno le particelle subiscono la prima fase di accelerazione e organizzazione in pacchetti che vanno a formare i fasci dell’esperimento. Rispetto al Linac 2, inaugurato nel 1978 ed attualmente in funzione, il nuovo acceleratore sarà in grado di consegnare fasci di protoni con tre volte più energia, e le collisioni di particelle a impatto più elevato forniranno nuovi dati al momento inarrivabili: si potranno così raccogliere 10 volte la quantità di dati durante gli esperimenti. Fabiola Giannotti, italiana e prima donna a diventare direttore generale del CERN, ha voluto esprimersi così durante l’inaugurazione: “Linac 4 è un moderno iniettore e il primo elemento chiave del nostro ambizioso programma di aggiornamento. […] Questa fase di alta luminosità aumenterà notevolmente il potenziale degli esperimenti Lhc per scoprire nuova fisica e misurare le proprietà della particella di Higgs in modo più dettagliato” è , infatti, la luminosità un parametro che indica il numero di particelle che si scontrano in una determinata quantità di tempo e che, grazie al progetto High-Luminosity Lhc, porterà il picco di luminosità a valori più elevati entro il 2025.

Le aspettative sono già da ora tante e si parla di un passo fondamentale verso gli esperimenti futuri, e in particolare della prospettiva di fornire misurazioni più accurate di particelle fondamentali, oltre che di osservare processi rari che avvengono oltre il livello di sensibilità degli strumenti attuali. Sorprenderà, inoltre, sapere che versioni più piccole di “Linac” possiamo trovarle anche in ogni reparto ospedaliero di radioterapia dal momento che i fasci di elettroni si usano per produrre fasci di fotoni (i cosiddetti raggi X) molto intensi usati per eliminare le cellule malate dei pazienti affetti da tumore. Dalla natura galattica, quindi, l’evoluzione delle tecnologie porterà Linac 4 ad avere anche una applicazione nella medicina nucleare, contribuendo al potenziamento delle cure contro il cancro. La scoperta della natura del cosmo passa così anche alla salute umana.

Gianluca Cimini

]]>
Tue, 30 May 2017 18:41:13 +0000 http://www.gianlucacimini.it/mc/527/1/linac4-risolvere-il-mistero-della-materia-oscura-e-il-prossimo-obiettivo-del-cern gianlucacimini2016@gmail.com (Gianluca Cimini)
Hubble: da 27 anni lo spazio che conosciamo è meno oscuro, e più bello, grazie a lui. http://www.gianlucacimini.it/mc/526/1/hubble-da-27-anni-lo-spazio-che-conosciamo-e-meno-oscuro-e-piu-bello-grazie-a-lui

Lanciato in orbita il 24 aprile 1990, il telescopio spaziale Hubble si prepara a festeggiare 27 anni di carriera, ed è un periodo lungo e pieno di scoperte e soddisfazioni quello che lo strumento gestito da NASA e ESA (Agenzia spaziale europea) ha saputo regalarci in questi quasi trent’anni di attività. Nell’immensità e nell’oscurità del cosmo, Hubble ha saputo in questi anni fare un po’ di chiarezza in più rispetto allo spazio che ci abbraccia; regalandoci, inoltre, immagini uniche e mozzafiato del nostro universo come nessuno lo immaginava, immagini che hanno saputo, inoltre, cambiare numerose delle idee che avevamo riguardo all’evoluzione del cosmo e svelare nel dettaglio la bellezza, la meraviglia e la complessità dell’Universo. Hubble non ha solo compiuto innumerevoli scoperte astronomiche, ha anche avvicinato l’astronomia al grande pubblico soddisfacendo la curiosità, accendendo l’immaginazione e producendo un forte impatto su cultura, società, arte.

Decollato ormai anni fa da Cape Canaveral, l’inizio è stato travagliato, segnato da problemi tecnici e di budget che fecero posticipare l’iniziale lancio programmato nel 1983 al 1986, stesso anno in cui la tragedia dello Space Shuttle Challenger (in cui morirono sette astronauti) fece sospendere tutte le missioni per gli Space Shuttle, compresa quella in cui si sarebbe dovuto lanciare il telescopio spaziale. Il telescopio spaziale dovette così rimanere custodito sottochiave in una speciale camera bianca, acceso e pulito con azoto (con costi altissimi per la manutenzione pari a circa sei milioni di dollari al mese). Quello che si rivelò inizialmente un disastro economico garantì però che il software originario, non pronto per la data originaria del lancio, venisse completato e testato a dovere. Anche dopo l’atteso decollo (a bordo dello Shuttle Discovery) non mancarono i guai per Hubble: un difetto nella costruzione dello specchio primario non permetteva di raggiungere la messa a fuoco prevista, per risolvere questo problema la NASA mise in atto una delle missioni più complesse nella storia dello Shuttle durante la quale in undici giorni i membri dell’equipaggio, dopo moltissime passeggiate spaziali, riuscirono a risolvere il problema principale del telescopio. Da quel momento in poi, senza dover contare gli interventi di manutenzioni successivi ordinari già programmati prima della messa in orbita, Hubble ha saputo regalarci grandi soddisfazioni: a lui dobbiamo molte delle sensazionali scoperte relative al Sistema Solare come le foto memorabili delle aurore gioviane, la collisione della cometa Shoemaker-Levy 9 con il pianeta Giove nel 1994, l'avvistamento dei pennacchi di vapore sulla luna di Giove Europa e la scoperta del quarto e quinto satellite di Plutone, nel 2011 e nel 2012.

Ultime solo in ordine di arrivo sono le immagini in alta risoluzione, acquisite tra il 2 e il 22 gennaio 2017, che ritraggono due galassie a spirale, piuttosto simili per struttura e composizione ma differenti per la loro inclinazione, localizzate nella costellazione della Chioma di Berenice, a 55 milioni di anni luce da noi, che mostrano come potrebbe apparire la nostra Via Lattea ad un osservatore esterno. Le due galassie, scoperte nel 1784 dall'astronomo William Herschel, sono parte dell'Ammasso della Vergine, un "grappolo" di quasi 2.000 galassie legate tra loro da un complesso viluppo di forze gravitazionali. Grazie alla “Wide Field Camera 3” Hubble è riuscito a immortalare NGC 4302, una galassia con un un diametro di circa 87.000 anni luce con una grandezza pari al 60% della Via Lattea e un decimo della sua massa; e anche NGC 4298 che, con un diametro di 45.000 anni luce, è grande quanto un terzo della Via Lattea e ha un centesimo della sua massa. Nonostante le due galassie siano relativamente vicine tra loro (da circa 7.000 anni luce) non presentano evidenti deformazioni della loro struttura dovute ad interazioni gravitazionali.

Hubble compie così bene il suo lavoro che ogni anno più di mille astronomi di ogni nazionalità al mondo richiedono di poterlo utilizzare per osservare i loro obiettivi scientifici, ma, a causa dell’elevato numero di queste richieste, i processi di valutazione e selezione delle domande fino ad oggi hanno richiesto tempi molto lunghi. Dico fino ad oggi perché, a breve, verrà lanciato un “classificatore bayesiano” dal nome PACMan in grado di classificare le varie attività di ricerca di Hubble ed identificare gli esperti che dispongono di competenze scientifiche pertinenti al tema proposto, così da velocizzare il processo di selezione potendo sostituirsi in questo modo ai 150 membri della comunità scientifica internazionale che, fino ad oggi, nell’arco di sei mesi, si occupavano di analizzare e selezionare le proposte di alto valore scientifico.

Rivoluzionando il campo dell’astronomia dell’astrofisica per 27 anni, Hubble ha consentito all’umanità di vedere il cosmo come mai prima d’ora ed è ancora lontano dal suo pensionamento, il futuro lo vedrà infatti lavorare ancora per diversi anni, si stima fino al 2030-2040, fino a quando non saranno operativi i suoi successori: il lancio del suo successore il telescopio “James Webb” è programmato per il 2018. Fin dall’alba della civiltà gli uomini hanno alzato gli occhi al cielo per provare a dare un senso a ciò che vedevano ponendosi, inoltre, domande esistenziali sulle nostre origini e sul nostro futuro. Manca poco quindi, e lo dico con emozione, quando NASA ed ESA avranno in orbita una coppia di strumenti formidabili per spingere la nostra conoscenza verso limiti sempre più lontani grazie ad uno strumento in più per provare a scoprire i tanti misteri che permeano, ancora, il nostro cosmo.

Gianluca Cimini

]]>
Thu, 25 May 2017 17:04:39 +0000 http://www.gianlucacimini.it/mc/526/1/hubble-da-27-anni-lo-spazio-che-conosciamo-e-meno-oscuro-e-piu-bello-grazie-a-lui gianlucacimini2016@gmail.com (Gianluca Cimini)
WannaCry: come può un attacco hacker paralizzare i pc di mezzo mondo http://www.gianlucacimini.it/mc/525/1/wannacry-come-puo-un-attacco-hacker-paralizzare-i-pc-di-mezzo-mondo

La recente cyberoffensiva hacker globale “WannaCry” ha paralizzato i pc di mezzo mondo con numeri di diffusione tanto grandi quanto impressionanti: 100 mila attacchi, 150 paesi colpiti, ospedali britannici mandati in tilt e anche 2 università italiane. Un attacco di così ampia scala non era mai accaduto prima e riporta alla ribalta un tema scottante come quello dello sicurezza informatica: i dati sono ancora provvisori e non mi sento di escludere in futuro un’ eventuale rappresaglia o un ulteriore attacco alle stesse grandi aziende ritenute fino ad oggi al sicuro dal lato oscuro del web. L’Europol ha descritto l’attacco “di un livello senza precedenti”.

Dall’Europa agli Stati Uniti, arrivando fino alla Russia e a Taiwan. Il virus, secondo quanto ricostruito da alcuni esperti, appartiene alla famiglia dei ransomware, quelli cioè che prendono in ostaggio pc e smartphone e poi chiedono agli utenti il pagamento di un riscatto (ransom), prevalentemente in bitcoin, per restituire i dati sottratti indebitamente. L’attacco, secondo la ricostruzione del Financial Times, sarebbe stato perpetrato utilizzando strumenti rubati all’Agenzia di sicurezza nazionale degli Stati Uniti, precisamente utilizzando “EternalBlue”, una cyber arma trafugata negli scorsi giorni alla NSA dal gruppo hacker Shadow Brokers. Quei software utilizzati per spiare mezzo mondo sono diventati così i mezzi per infettare migliaia di computer, bloccando le funzionalità e mettendo in ostaggio i dati degli utenti e delle società in attesa del pagamento del riscatto. La stessa Microsoft aveva tirato in ballo la NSA in un comunicato ufficiale deplorando i rischi insiti nell’arsenale di “exploit” di cui dispongono le agenzie governative e già da Marzo aveva messo a disposizione degli utenti un aggiornamento per bloccare eventuali attacchi hacker attraverso la vulnerabilità nota “EternalBlue”,due mesi, quindi, che sarebbero stati utili per proteggersi dall’eventuale attacco, che poi si è avverato veramente, e che non sono stati sfruttati a dovere. Le decine di migliaia di personal computer colpiti dal ransomware WannaCry sono, infatti, accomunati da due caratteristiche: girano su piattaforma Windows e nessuno di questi era aggiornato all'ultimo aggiornamento che la casa di Redmond aveva rilasciato. La maggior parte dei pc delle aziende, infatti, tende ancora oggi ad utilizzare software ormai vetusti e il cui supporto, in fatto di aggiornamenti e risoluzione di problematiche legate a falle nel sistema, è ormai terminato da anni.

«I governi di tutto il mondo dovrebbero considerare questo attacco come un campanello d'allarme. Bisogna adottare un approccio diverso e applicare al cyberspazio le stesse regole applicate alle armi nel mondo fisico. C'è bisogno che prendano in considerazione i danni ai civili provenienti da queste vulnerabilità. Questo è uno dei motivi per cui abbiamo chiesto a febbraio una nuova “Convenzione digitale di Ginevra” per poter governare queste questioni» questa è la posizione ufficiale di Microsoft, che con gli ultimi aggiornamenti del suo sistema operativo ostacola la diffusione del virus “WannaCry” e paragona la sottrazione dei codici NSA a quella di un furto di armi convenzionali all’esercito statunitense: è come se gli Hacker praticamente fossero riusciti a trafugare dei potenti missili Tomahawk dai depositi superprotetti di armi dell’esercito americano. Un aiuto alla situazione potrebbe arrivare dal futuro codice europeo per la protezione dei dati, che renderà obbligatorio da fine maggio per le aziende di grandi dimensioni condividere i dati di un eventuale attacco. Grazie alla condivisione si potrà conoscere il virus e creare il giusto antivirus per combatterlo. Ma la guerra silente deve anche muoversi a priori.

Ma perché siamo così vulnerabili? La risposta è semplice: si ignorano le più banali regole sulla cyber sicurezza, specie perché basterebbe scaricare un banale software per proteggersi dagli attacchi informatici. E quello che può essere un problema per un singolo utente diventa un enorme problema quando ad essere attaccati sono i computer di sedi istituzionali, ospedali, università ed altre sedi fondamentali per il mantenimento del funzionamento di un paese. A volte si rimanda, a volte si sottovaluta il rischio e così gli aggiornamenti del sistema operativo e dei software che dovrebbero essere automatici e periodicamente controllati lasciano un ampio margine per eventuali intrusioni perpetrate da hacker senza scrupoli. Non che è i server se la cavino meglio dal momento che a volte risultano non adeguati per poter ospitare sofisticate versioni aggiornate di antivirus.

Ed intanto la tensione per l’attacco hacker non tende a diminuire: sia in Gran Bretagna, il paese più bersagliato con 48 aziende ospedaliere bloccate per colpa del virus, sia in Cina, dove l’attacco ha colpito 30.000 sedi istituzionali, sia altrove regna il timore che l’attacco possa essere rinnovato. Nonostante sia ancora presto per scoprire chi ci sia dietro l’attacco e per quali ragioni, oltre a quella di prendere in ostaggio i pc per chiedere un riscatto, la conclusione di alcuni ricercatori esperti di sicurezza informatica, derivata dalla somiglianza tra quest’ultimo attacco e quello perpetrato nel 2014 contro la Sony, ipotizza che ci sia la Corea del Nord dietro il massiccio cyberattacco su scala globale che da giorni sta tenendo sotto scacco un centinaio di Paesi. Se sia vero o solo un modo per giustificare azioni di ritorsione futura nei confronti di questo paese, lo scopriremo solo con il tempo. Un evento di così grande richiamo mi auguro che possa essere lo spunto per una prossima azione collettiva urgente, sia tra stati sia tra aziende, poiché il settore tecnologico, i clienti ed i governi comincino a lavorare insieme per proteggerci dagli attacchi futuri che, pur partendo da un mondo virtuale, rischiano di sabotare la nostra vita reale. Ricordiamolo: la sicurezza informatica non è un costo ma un investimento.

Gianluca Cimini

]]>
Thu, 18 May 2017 18:43:10 +0000 http://www.gianlucacimini.it/mc/525/1/wannacry-come-puo-un-attacco-hacker-paralizzare-i-pc-di-mezzo-mondo gianlucacimini2016@gmail.com (Gianluca Cimini)
Tra SPID, CIE e CNS, il cittadino digitale italiano a che punto sta? http://www.gianlucacimini.it/mc/524/1/tra-spid-cie-e-cns-il-cittadino-digitale-italiano-a-che-punto-sta

Mi ricordo ancora quando l’Europa lanciò uno dei suoi primi piani d’azione sul governo elettronico, a inizio nuovo millennio la rete si stava pian piano diffondendo anche nelle case di molte nazioni europee e ancora più lentamente in quelle di noi italiani, ma l’entusiasmo verso un mondo motivato dallo slogan “più file meno file” era frutto dell’ottimismo e della convinzione che la rete avrebbe potuto cambiare tutto: un Internet meno caro, più rapido e sicuro; la possibilità di investire negli uomini e nelle competenze; di incentivare l'uso della rete e di liberalizzare il mercato delle telecomunicazioni. In questi quindici anni molte cose sono state fatte, molte altre no, ma nel suo complesso il sistema Paese ha perso colpi, sprecato tempo e occasioni preziose. L’Italia arranca nelle ultime classifiche europee in quanto ai servizi online messi a disposizione da enti e aziende pubbliche e private riguardo al fenomeno evolutivo dell’eGovernment.

Ormai nel 2017 poter accedere in via telematica ai numerosi servizi offerti dalla Pubblica Amministrazione (PA) è una comodità irrinunciabile. Non solo per l'utente , che può sbrigare così tutte le proprie incombenze comodamente da casa senza perdere tempo in file interminabili, ma anche per le stesse amministrazioni, che liberano risorse e tempo prezioso da destinare ad altri compiti. Confondersi, però , quando la comunicazione non è efficace e mette troppa carne al fuoco, è lecito per molti, ancora di più per chi è completamente analfabeta sui vari termini legati all’ eGovernment.: SPID, CNS o CIE, senza informazioni adeguate, rimangono solo sigle incomprensibili.

A differenza di altri paesi europei, dove esistono portali integrati per la Pubblica Amministrazione , in Italia ancora questo servizio non è presente, ma i servizi online, anche dove presenti, non sono perfettamente integrati tra loro: e pensare che è dal 2010 che tale progetto viene discusso (prima con italia.gov.it e poi con “Italia Login”)  ,ma ancora siamo costretti a cercare tra i tanti siti il servizio che ci serve nella speranza che il tutto non si traduca solo in un file da scaricare che poi ci rimandi allo sportello fisico per risolvere le nostre questioni burocratiche. Secondo la Commissione Europea siamo al 25° posto, su 28, nella classifica della “Digital Economy and Society Index 2017”. Riguardo alla Pubblica Amministrazione l'erogazione dei servizi è aumentata, ma la percentuale di utenti è scesa al 16% contro il precedente 18%, simbolo forse che i servizi sono erogati male e risultano poco accessibili.

Nata ad inizio millennio esclusivamente come strumento di identificazione in rete la Carta Nazionale dei Servizi (CNS) è uno standard di riferimento per vari tipi di carte che possono essere emesse da enti diversi: tessere dello studente, tesserini dei vari ministeri, strumento di firma per le Camere di commercio. Probabilmente già tutti la possediamo, senza esserne nemmeno a conoscenza, dopotutto, se la nostra Tessera Sanitaria è plastificata e dotata di chip dorato, teniamo una CNS nel nostro portafoglio già da anni. Se non siamo stati fino ad oggi consapevoli di averla tra le nostre mani, probabilmente è perché sia la comunicazione a riguardo da parte della PA è stata poco efficace, sia perché, in effetti, non sappiamo effettivamente come può essere utilizzata, e anche se ne venissimo a conoscenza l’iter per l’utilizzazione necessita di un lettore di smart-card e dell’attivazione della stessa presso gli sportelli abilitati della regione di appartenenza: non il massimo della semplicità e dell’efficienza.

L'altro strumento che permette l'identificazione dei cittadini è la Carta d'Identità Elettronica (CIE) di recente introduzione. Ne sono dotati 344.190 italiani e, a regime - il governo dice entro il 2018, ma anche in questo caso sarà dura rispettare i tempi - sostituirà di fatto la carta di identità cartacea nelle nazioni dell'Unione Europea e fa le veci del passaporto per il transito in molti altri stati. La carta d’identità cartacea italiana dopotutto è la più falsificata d’Europa, urge, quindi, da anni un cambiamento forte e la nuova CIE, quindi, sarà estremamente più sicura, supportando i più recenti standard in fatto di cifratura dei dati e contenendo foto e impronte digitali dell’utente. Arrivata alla sua terza versione la Carta d’identità Elettronica, dotata di un chip wireless, può essere letta dai dispositivi utilizzati dalla strumentazione di controllo presente, ad esempio, in frontiera, da lettori da tavolo commerciali e da smartphone dotati di interfaccia NFC. Per ottenere la nuova CIE 3.0 si deve andare sul sito ufficiale del Ministero dell’Interno e verificare se il proprio comune ha già attivato l’emissione, in caso negativo aspettare l’attivazione del servizio, per ora sono solo 199 su 8.000 i comuni che offrono tale servizio, ma il numero è in crescita.

CIE e CNS sono due strumenti complementari, non equivalenti, anche se entrambi possono essere utilizzati per l'accesso ai servizi erogati dalle PA, presentano però alcuni limiti tecnologici che non le rendono particolarmente versatili, né universalmente utilizzabili, aprono però le porte ad un terzo strumento, di nuova invenzione: il “Sistema Pubblico per l’Identità Digitale” (SPID) che potrebbe dare uno svolta al nostro ruolo di cittadini digitali. Ad un anno dalla sua implementazione l’SPID è un pass-partout unico per ogni servizio della PA, utile ad evitare code agli sportelli e perdere ore di lavoro utilizzabili in ben altro modo. L'elenco dei servizi di pubblica amministrazione è piuttosto ampio, circa 4.155 servizi erogati da 3.654 amministrazioni, e così, per esempio, possiamo controllare la nostra situazione INPS, INAIL, fare visure, pagare tasse e tributi, o effettuare prenotazioni varie. SPID introduce diverse novità: anzitutto, essendo completamente dematerializzata e non richiedendo l'utilizzo di un particolare supporto permette un accesso facile da qualsiasi dispositivo di fruizione, desktop, notebook, tablet o smartphone. Addio ,inoltre, alla miriade di user e password da tenere a mente per interloquire con ministeri, regioni, comuni, scuole, fisco, previdenza sociale o aziende sanitarie varie.

L'identità SPID, inoltre, si ottiene facendone richiesta ad uno degli identity provider accreditati, consentendo così a ciascun utente di scegliere liberamente il gestore di identità digitale preferito fra quelli autorizzati dall'Agenzia per l'Italia digitale (AgID), al momento tali Gestori accreditati sono cinque: Poste, TIM, Aruba, Infocert e Sielte. L’obiettivo del Governo, entro il 2017, è quello di offrire tale servizio a più di dieci milioni di cittadini italiani. Obiettivo ambizioso sicuramente, perché significa che ogni Pubblica Amministrazione deve essere in grado di interagire con la piattaforma predisposta dall'Agenzia per l'Italia Digitale, vedremo come andrà nei mesi a venire. L'identità SPID è costituita da credenziali con caratteristiche differenti in base al livello di sicurezza richiesto per l'accesso. Esisteranno tre livelli di sicurezza, ognuno dei quali corrisponderà a tre diversi livelli di identità SPID. CIE e SPID, inoltre, sono strumenti di "autenticazione forte" che permetterebbero ai comuni di identificare con certezza assoluta i cittadini partecipanti ad una consultazione online, si aprono insieme ad un futuro di “Democrazia diretta online” ma a riguardo ci sarebbe ancora molto da scrivere e discutere. Rimane, comunque, il mio pensiero che un cittadino più informato sia un cittadino meglio governato. Oggi come ieri, Internet può rispondere a questa esigenza, mettersi al servizio della complessa macchina dello Stato per riformarlo profondamente, renderlo più efficiente, più vicino alle esigenze dei cittadini, dopotutto la trasparenza può significare meno corruzione e portare ad una rinnovata fiducia nelle istituzioni.

Gianluca Cimini

]]>
Tue, 16 May 2017 20:10:36 +0000 http://www.gianlucacimini.it/mc/524/1/tra-spid-cie-e-cns-il-cittadino-digitale-italiano-a-che-punto-sta gianlucacimini2016@gmail.com (Gianluca Cimini)
Biotecnologie e longevità: come cambierà la nostra vita - di Gianluca Cimini http://www.gianlucacimini.it/mc/523/1/biotecnologie-e-longevita-come-cambiera-la-nostra-vita---di-gianluca-cimini

“Forever Young, i want to be forever young” cantavano gli Alphaville nel 1984, e se adesso nel 2017 ancora non si può rimanere eternamente giovani, sicuramente grandi passi sono stati fatti per regalarci una vita più longeva nonché migliore grazie alla combinazione dello studio del DNA e all’avvento delle biotecnologie (il cui termine deriva proprio da βίος, bìos = "vita" , τέχνη (téchne), "arte" nel senso di "perizia", "saper fare", "saper operare", e λόγος, lògos = “studio”). Le biotecnologie, grazie all’applicazione e allo studio di qualunque tecnologia sviluppata o sviluppabile dall’uomo nel campo della biologia, vengono, infatti, impiegate in molti campi di ricerca: dalla Bioingegneria, alla Biofisica, passando per l’Ingegneria genetica, senza escludere il campo delle farmacologia e della medicina, ed ancora il biorisanamento (ossia il trattamento, riciclo e la bonifica dei rifiuti attraverso microrganismi attivi). Riprendendo una delle definizioni più complete disponibili possiamo affermare che “La biotecnologia è l'applicazione tecnologica che si serve dei sistemi biologici, degli organismi viventi , o di derivati di questi , per produrre o modificare prodotti o processi per un fine specifico.”

Pur non servendosi di microrganismi, sono classificate come biotecnologie anche le nuove terapie mediche o alcuni innovativi strumenti diagnostici, come per esempio le tecniche di DNA e RNA microarray utilizzate in genetica ed i radiotraccianti utilizzati in medicina. E gli esperti del settore Biotech, come il genetista Edoardo Boncinelli, avvertono: “Siamo vicini ad un salto quantico, sarà un gioco da ragazzi modificare tutti i genomi, compreso il nostro. Il cosiddetto taglia-incolla del DNA non rappresenta un grosso cambiamento concettuale, ma lo è da un punto di vista pratico perché permette di modificare il DNA velocemente, a basso prezzo e con un’enorme precisione.” E così mentre ancora si parla e discute di OGM in Italia, gli esperti del settore si dicono già pronti a fare il grande salto, ossia “ritoccare” geneticamente anche gli esseri viventi, ma prima ci sarà da preparare la gente all’evento. Uno scenario dove sicuramente esiste ancora troppa diffidenza ed ignoranza sull’argomento e probabilmente molti sono ancora impreparati ad affrontare il tema, proprio per questo gli anni a venire saranno fondamentali per capire quanto la Biotecnologia potrà portare dei benefici reali alla nostra vita futura.

L’importanza delle biotecnologie si estende ben oltre il potenziale economico, poiché riguarda anche la vita quotidiana degli esseri umani. Come diceva il Dottor Veronesi: “La durata della nostra vita è geneticamente codificata. Intervenendo sui geni la si può estendere”. Dai miti greci al “Ritratto di Dorian Gray”, passando per la leggenda di Faust, allungare la vita è sempre stato il sogno degli esseri umani.

Due nuovi studi, pubblicati su Science e Cell in questi giorni, stanno cercando di azzerare i danni al DNA creati normalmente dall’avanzare del tempo, stimolando il rinnovamento dei tessuti per mantenerli eternamente giovani. Lo studio è già riuscito a fermare il tempo biologico sui topi di laboratorio ma potrebbe in futuro aiutare i malati di cancro o essere utilizzato su persone sane ma esposte a fattori di rischio elevati come gli astronauti impegnati nelle future missioni dirette su Marte. Il farmaco in questione agisce potenziando l’azione di una molecola naturalmente presente nelle cellule ed accelera i meccanismi di riparazione del DNA riuscendo così a cancellare i danni causati dall’invecchiamento e dall’esposizione alle radiazioni. Un elisir di lunga vita, quindi, capace di indurre al suicidio le cellule più anziane dell’organismo risparmiando però quelle normali e senza causare effetti collaterali. La fantascienza entra nell’ordinario così e il prossimo passo sarà la sperimentazione sull’uomo. Altre ricerche prevedono invece che biomateriali, somministrati attraverso una speciale bomboletta spray sulla superficie del cuore danneggiato da infarto, possano formare un gel capace di riparare il cuore senza bisogno di punti di sutura e di chirurgia a torace aperto, una notevole evoluzione, quindi, dei già esistenti cerotti rigenerativi sperimentati fino ad oggi che necessitano però ancora di essere innestati direttamente a contatto con gli organi che desiderano proteggere.

La ricerca dell’elisir , oltre ad affascinare molti, è uno dei temi più intriganti nel mondo della biotecnologia, probabilmente anche per questo l’azienda con sede a Londra “Tiziana Life Sciences” ha comprato nel 2016 il DNA di 13.000 sardi dalla regione Sardegna per condurre studi legati alla ricerca contro il cancro e contro le malattie del sistema immunitario. Quella dell’Ogliastra, nella Sardegna centro-orientale, è infatti la zona al mondo con la più alta proporzione di centenari insieme all’isola giapponese di Okinawa. Obiettivo dello studio trovare il legame fra patrimonio genetico e longevità. Costo dell’operazione 258.000 euro, ma i politici locali dicono che questa operazione di lunga gittata avrebbe un valore molto maggiore, forse superiore ai 4 milioni di euro.

Il rapporto 2016 “Le imprese di biotecnologie in Italia” (redatto da Assiobiotec con la collaborazione di Enea) fotografa un settore nazionale comprendente circa 500 imprese capaci di fatturare oltre 9,4 miliardi di euro e con previsioni di crescita a due cifre per i prossimi anni. Più di 9.200 persone sono impegnate in questo settore ad alta intensità di ricerca dove la quota di addetti in ricerca e sviluppo è molto alta (circa cinque volte per esempio rispetto all’industria manifatturiera). A frenare un settore pronto ad espandersi sono ancora una volta: burocrazia, frammentazione, poco trasferimento tecnologico e misure di supporto strutturale ancora poco competitive. Quello che si augurano i critici del settore, e che mi aspetto da tempo anche io, è l’istituzione di una cabina di regia centrale e comune per l’intero sistema capace di coordinare ed organizzare i vari interventi legati alla ricerca ed all’innovazione, individuando le priorità ed indirizzando le eventuali risorse disponibili. 

Gianluca Cimini

]]>
Sun, 14 May 2017 09:46:45 +0000 http://www.gianlucacimini.it/mc/523/1/biotecnologie-e-longevita-come-cambiera-la-nostra-vita---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Imprese familiari e logiche di governance a loro associate - di Gianluca Cimini http://www.gianlucacimini.it/mc/522/1/imprese-familiari-e-logiche-di-governance-a-loro-associate---di-gianluca-cimini

Nate inizialmente in relazione alle società a capitale aperto, sia quotate sia partecipate, le tematiche relative alla corporate governance, a seguito della trasformazione del mercato dei capitali ed all’evoluzione dei rapporti banca-impresa, ultimamente si stanno indirizzando anche verso quelle società private, a capitale chiuso, il cui controllo risponde a gruppi familiari con l’eventuale partecipazione di soci di minoranza, non finanziari, con ruoli diretti o indiretti nella gestione aziendale. Come anticipato, tale tentativo di applicare i concetti e i principi della corporate governance alle società private nasce dai nuovi rapporti banche-imprese definiti dalle regole stabilite dal Comitato di Basilea, ossia quelle regole che richiedono modalità di finanziamento più strutturate, con parametri di valutazione delle imprese più oggettivi e con una maggiore attenzione ai piani di sviluppo aziendali e agli assetti societari e di governo aziendale. Quando si parla di aziende familiari e di corporate governance è opportuno prima dare una definizione precisa di cosa effettivamente sia, a prescindere dallo status di società quotata, partecipata o privata, un’azienda familiare ossia: quell’impresa di capitali dotata di un’autonoma struttura economica e patrimoniale, la cui proprietà ed il cui governo aziendale sono controllati o da un’unità familiare semplice (intesa come un individuo, anche insieme al coniuge, che possiede la maggioranza del capitale sociale e che governa l’impresa con l’obiettivo della continuità e della successione ai propri eredi, che assumeranno il controllo della proprietà e della gestione aziendale), o da un’unità familiare complessa (ed in questo caso ci riferiamo ad un insieme di individui legati da vincoli familiari diretti che possiedono collettivamente la maggioranza del capitale sociale, i cui componenti partecipano al governo dell’impresa mediante il possesso delle quote societarie e/o la presenza a vario titolo negli organi societari e/o nelle strutture direttive e operative dell’impresa), o, infine, più unità familiari che singolarmente non hanno la maggioranza del capitale sociale e che governano congiuntamente l’impresa con accordi statutari e parasociali. Sono due le forme di controllo a cui, in una logica di governo, possono rispondere le aziende familiari: quella concentrata, nel caso di titolarità nelle mani di un unico soggetto o di un unico gruppo familiare con una struttura semplificata, o quella allargata, nel caso di titolarità formata da più unità familiari o di un’unità familiare formata da più individui. Rispetto a quelle quotate e partecipate, inoltre, le aziende familiari private si differenziano per alcune particolarità come:

  • la sovrapposizione tra il controllo, la partecipazione al capitale sociale ed il management (in cui le differenze tra soci di controllo e soci di minoranza sono più limitate e fondate su rapporti interrelati, questo porta anche a logiche di successione che sono più predeterminate perché i soggetti che sono destinati a subentrare nella proprietà e nella possibile condizione aziendale rispondono a ragioni ereditarie);
  • ma anche dalla commistione e l’interdipendenza tra il patrimonio familiare e quello aziendale che, anzi, risulta proprio uno dei tratti più rilevanti per la governance delle aziende familiari private (il patrimonio aziendale può essere, infatti, utilizzato per accedere a fonti di capitale che sono finalizzate a soddisfare finalità ed interessi del gruppo familiare esterni a quelli dell’azienda);
  • nonché dalla presenza e la rilevanza di modalità di rapporti informali nei processi di governo aziendale che influenzano e determinano le dinamiche delle formali strutture e procedure societarie e aziendali, portando così le istanze di governance per le aziende familiari private ad essere più complesse nella loro applicazioni rispetto ad altri casi;
  • l’ultima differenziazione è, invece, la mediazione tra le finalità di lucro delle attività d’impresa e quelle che rispondono agli interessi e ai valori individuali e collettivi del gruppo familiare, per cui gli obiettivi ed i livelli di remunerazione del capitale investito possono essere compensati dall’esigenza di soddisfare altre istanze.

La relazione tra famiglia, proprietà e impresa e tipologie di aziende familiari può essere inoltre descritta in maniera più chiara attraverso il famoso “modello dei tre cerchi di Tagiuri e Davis” (1982 e 1996) in cui ci si riferisce alla proprietà, alla famiglia e all’impresa come a tre gruppi distinti che vengono sempre più a contatto a seconda della diversa tipologia di azienda interessata, e, quindi, i legami aumentano passando dalle aziende familiari quotate, crescendo in quelle partecipate fino quasi a confluire in quelle private. In maniera più precisa nelle aziende quotate, la famiglia la proprietà e l’impresa hanno relazioni contigue, ma distinte, perché debbono rispondere ai requisiti e alle condizioni dei mercati regolamentati che garantiscono gli interessi degli investitori e dei risparmiatori e la corretta, nonché trasparente ed equilibrata negoziazione dei titoli azionari. In quelle partecipate, invece, le relazioni tra i tre gruppi sono più integrate tra loro, anche se debbono ancora essere gestite e regolate con un’adeguata distinzione per garantire l’interesse dei terzi investitori. Nelle aziende private, infine, si presenta una fisiologica sovrapposizione tra la famiglia, la proprietà e l’impresa e, proprio per questo, le regole di governance debbono essere strutturate per garantire che le relative relazioni siano funzionali a soddisfare i diversi interessi e la capacità di sviluppo e di continuità delle attività aziendali. Riassumendo, le aziende familiari private coniugano i tratti propri delle imprese commerciali che perseguono le finalità primarie della produttività, della competitività e della remuneratività del capitale investito con quelli propri delle imprese cooperative in cui prevalgono i valori fondamentali della comunità d’interessi, della partecipazione dei soci alle attività aziendali e della solidarietà tra tutti i partecipanti alla base sociale. Le criticità delle politiche di governance aziendale, infine, nascono proprio, a mio avviso, dalla capacità di soddisfare, e al tempo stesso, strutturare i valori e le relazioni familiari che sono in larga misura di tipo informale e difficilmente inquadrabili in regole e procedure formali.

Gianluca Cimini

]]>
Mon, 8 May 2017 20:06:35 +0000 http://www.gianlucacimini.it/mc/522/1/imprese-familiari-e-logiche-di-governance-a-loro-associate---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Dall’Apollo 16 a Space X: l’esplorazione spaziale continua a far sognare http://www.gianlucacimini.it/mc/521/1/dall-apollo-16-a-space-x-l-esplorazione-spaziale-continua-a-far-sognare

Sono passati 45 anni da quanto la missione Apollo 16 della Nasa, precisamente il 21 aprile 1972, atterrava per la quinta e penultima volta sulla Luna. Partita dal Kennedy Space Center a Cape Canaveral, in Florida, la decima missione del programma spaziale statunitense Apollo si concluse 11 giorni dopo con un “tuffo” nell’Oceano Pacifico, (non senza difficoltà dal momento che tre giorni dopo il lancio, il sistema di navigazione computerizzato smise di funzionare correttamente e gli esperti astronauti dovettero determinare la loro posizione attraverso un classico e semplicissimo sestante e non con strumenti altamente sofisticati o tecnici). Quella fu la prima volta che una missione Apollo raggiungeva gli altopiani della Luna, un luogo scelto per permettere agli astronauti di raccogliere materiali geologici più antichi rispetto a quelli raccolti nelle quattro missioni precedenti (e che permise di riportare sulla terra, oltre a dati ed informazioni uniche,  anche 95,8 chilogrammi di campioni lunari per analisi più approfondite). L'atterraggio sulla superficie lunare per la prima volta non poté essere trasmesso in diretta televisiva, dato che la stazione trasmittente del modulo lunare si era guastata. Solo dopo che fu montato il trasmettitore del rover lunare, si poté iniziare a trasmettere le prime immagini dei lavori sulla Luna eseguiti durante questa missione. Dei tre partecipanti alla missione solo il comandante John Young e il pilota del modulo lunare Charles Duke, toccarono il suolo della Luna, mentre Ken Mattingly rimase a bordo del modulo di comando. I due astronauti trascorsero così 71 ore sulla superficie del nostro satellite, durante le quali condussero tre ‘passeggiate’ lunari che durarono complessivamente 20 ore e 14 minuti, utilizzando in queste passeggiate per 26,7 chilometri il rover lunare LRV alla sua seconda missione.

In 45 anni la conquista allo spazio ha subito rallentamenti ed accelerazioni varie, ad oggi però solo dodici fortunati eletti nella storia dell’umanità hanno avuto l’occasione e la possibilità di camminare sul nostro satellite. Astronauti che hanno ispirato una generazione, e che non sarebbe sbagliato considerare vicini a nomi di grandi esploratori “terrestri” come Cristoforo Colombo o Roald Amundsen, che hanno saputo spostare, non senza difficoltà, il limite estremo della frontiera sempre un pò più avanti sia sulla Terra sia sullo Spazio. "Era un luogo incontaminato e ovunque andassi sapevo che nessuno era mai stato là prima, quindi era da brividi” ha raccontato Charles Duke riguardo alla sua missione a bordo dell’Apollo 16. La descrizione della Luna fatta da Duke ci riporta “un deserto senza vita, senza atmosfera, ma con una bellezza particolare. […] Come colore era in gran parte grigio, con forti contrasti fra l'oscurità dello spazio e la luminosità della superficie esposta al sole.” Ma è curioso anche ricordare che, di fronte a tanta bellezza, l’espressione di stupore di Charles Duke alla sua prima passeggiata sul suolo lunare fu in un imperfetto italiano: “Mamma Mia!”.

Quelle di 45 anni fa erano sicuramente settimane colme di entusiasmo e di sogni verso uno spazio lontano, ma che si faceva sempre più vicino. Erano gli anni subito dopo lo sbarco sulla Luna, ed erano i giorni del lancio di Apollo 16, la quinta missione a portarvi delle persone. Erano gli anni in cui in radio  passava, con la voce di Elton John, la storia di un astronauta che salutava sua moglie e la sua terra prima della sua missione spaziale: “I’m a rocket man – (Sono un uomo razzo) Rocket man burning out his fuse up here alone – (Uomo razzo che sta fondendo le sue valvole qui da solo)”. Il tema spaziale era stato già affrontato nella musica pop con grande successo da una canzone che rimane ancora oggi una delle musiche che meglio accompagnarono quegli anni di conquiste spaziali: Ground Control to Major Tom - Commencing countdown, engines on - Check ignition and may Gods love be with you cantava un giovane David Bowie ancora prima di diventare lui stesso uno “Starman waiting in the sky”, via di mezzo tra un uomo e un alieno pronto a portare sulla terra un messaggio di pace e speranza sotto forma di musica.

A distanza di anni le missioni Apollo sono state, a mio parere, tra le più grandi avventure nella storia dell’umanità e, anche fra un migliaio di anni, sicuramente , verrano ricordate con lo stesso entusiasmo che sto esprimendo io adesso. Proprio quando era iniziata con successo l’attività di ricerca ed esplorazione della Luna, la modifica dell’indirizzo politico americano di quegli anni decretò la fine delle missioni lunari, nonostante esistessero, ormai, l’equipaggiamento e la tecnologia necessarie per ancora grandi scoperte ed avventure. Sino ad oggi abbiamo una base scientifica orbitante intorno alla terra, ma nessuno può escludere che un giorno una base scientifica fissa e stazionaria sulla Luna non potrebbe rientrare nei piani dei governi mondiali: Russia e Cina stanno già pianificando nei loro programmi spaziali di mandare nuovamente dei cosmonauti sul nostro satellite entro il 2029.

Se le previsioni poi si riveleranno vere, dopo la Luna la nostra frontiera dovrebbe spostarsi ancora un po’ più in là così da raggiungere, per la prima volta con un equipaggio umano, Marte entro il 2030. L’inizio di una nuova era spaziale, come avevo già scritto settimane fa, è ormai all’occhio di tutti grazie alle nuove tecnologie messe in campo da governi mondiali e da filantropi magnati come Elon Musk. L’impresa di SpaceX, con il successo legato al riutilizzo di un razzo spaziale “riciclato”, chiude simbolicamente un capitolo della storia dell'esplorazione spaziale e ne apre un altro, quello della sfida per far diventare ordinari i lanci, gli atterraggi e le ripartenze dei razzi, a costi inferiori e con tempi molto ristretti rispetto a quelli che sono lo standard di oggi. Più i costi per le missioni spaziali si abbasseranno e più sarà possibile cimentarsi in qualcosa di sempre più grande e avventuroso. Siamo ancora in una fase sperimentale, ma la concezione avuta fino ad oggi riguardo alle missioni spaziali sta mutando.

Gianluca Cimini

]]>
Sat, 6 May 2017 17:01:55 +0000 http://www.gianlucacimini.it/mc/521/1/dall-apollo-16-a-space-x-l-esplorazione-spaziale-continua-a-far-sognare gianlucacimini2016@gmail.com (Gianluca Cimini)
E-Sim, l’evoluzione della comunicazione mobile abbraccia l’IoT http://www.gianlucacimini.it/mc/520/1/e-sim-l-evoluzione-della-comunicazione-mobile-abbraccia-l-iot

Una volta era la SIM, acronimo di “Subscriber Identity Module”, la piccola smart card dotata di chip elettronico capace di archiviare in modo sicuro il numero univoco associato a tutti gli utenti di telefonia mobile di reti GSM o UMTS al momento della stipula di un contratto telefonico. Si inseriva nel telefono cellulare e da quel momento la nostra “identità mobile” era pronta a comunicare con il mondo. La prima SIM risale al 1991 e nasce grazie all’azienda Giesecke & Devrient di Monaco di Baviera.

Con il tempo abbiamo visto evolversi questa smart card verso forme fisiche sempre più piccole (l’ultimo modello che si trova sui cellulari di ultima generazione si chiama addirittura “nano”) ed allo stesso tempo con capacità di memoria ed affidabilità sempre maggiori. Meno spazio fisico necessario per archiviare i dati univoci del possessore del telefono attraverso la SIM permettono, inoltre, ai costruttori di cellulari di avere più libertà nella progettazione degli smartphone del futuro grazie a millimetri fisici liberi da utilizzare per nuovi componenti hardware più performanti. Non è un caso, infatti, che gli ultimi telefoni, o oggetti di design e di status sociale per alcuni, ne facciano sempre più uso alla ricerca forsennata del cellulare dal design più essenziale e funzionale possibile. Con l’introduzione e l’inizio della produzione nel 2016 della cosiddetta E-SIM (ossia Embedded Subscriber Identity Module) la rivoluzione della telefonia mobile non cessa di continuare ma anzi potrebbe stravolgere per sempre il mondo dei gestori telefonici con possibili vantaggi sia per i produttori di telefoni, sia per gli operatori. Senza dimenticare tutti gli utenti telefonici. La vecchia SIM, diventata prima “micro” ed infine “nano” per permettere la creazione di prodotti sempre più piccoli e compatti, vede nella sua più moderna versione la sparizione totale del “pezzetto di plastica” e la nascita di un chip, già inserito dai produttori nello smartphone, in grado di gestire le informazioni di sicurezza, autenticazione e connessione per uno o più operatori. Cosa significa questo?

La possibilità per l’utente di avere diversi contratti ed operatori su un unico terminale e di poter passare velocemente dall’uno all’altro, a seconda delle esigenze del momento, potendo associare più profili tariffari ad uno stesso dispositivo. Inoltre senza il bisogno di cambi fisici delle varie SIM anche le operazioni di cambio di gestore potranno essere velocemente gestite online con estrema semplicità. Anche la sicurezza vedrà un incremento poiché, a differenza del passato quando si doveva bloccare la SIM persa o rubata, adesso basterà effettuare nuovamente il login dal nuovo device e disattivare quello precedente senza perdita di dati. Il rischio, di fronte ad una vantaggiosa possibilità di cambiare operatore e tariffe online, potrebbe essere quello che, con il tempo, diminuiscano i vari negozi fisici degli operatori telefonici. Se è vero, da una parte, che l'attuale modello di business potrebbe essere stravolto, dall'altra si potrebbe assistere ad un vero e proprio abbattimento dei costi, eliminando progressivamente i punti vendita ed avviando offerte e campagne winback totalmente online, con la possibilità di potersi accaparrare clienti in maniera più veloce ed efficace. Per i produttori di telefonia il vantaggio si applica, invece, nella progettazione dei futuri smartphone, specie nei casi di quelli unibody impossibili da aprire, con la cessazione dell’utilizzo di “carrellini fisici” a scomparsa per inserire la vecchia SIM all’interno del terminale: più spazio guadagnato, come dicevamo, vuol dire più spazio utilizzabile per altri componenti hardware fondamentali per il telefono come batteria o altro.

In commercio esistono già dei pionieri di questa nuova tecnologia: Apple e Samsung. La prima nel 2014 aveva già introdotto la sua SIM virtuale all’interno di “iPad Air 2”, in quel caso un semplice menù all’interno del software del tablet dava all’utente la possibilità in fase di attivazione di scegliere un operatore ed un piano tariffario legato al suo iPad semplicemente scorrendo tra le varie opzioni dei menu di configurazione. Samsung, invece, ha presentato nel 2016 il suo smartwatch “Gear S2 Classic 3G” con supporto integrato alle E-SIM, in quel caso configurazione e scelta delle tariffe potevano essere effettuate semplicemente abbinando il wearable allo smartphone.

La vera rivoluzione, a mio avviso però, sarà quella legata all’IoT (internet of things) che coinvolgerà a brevissimo smartwatch, sensori vari ed elettrodomestici della casa del futuro, che necessiteranno sempre di più di essere connessi alla rete per sfruttare tutte le loro nuove caratteristiche. In questo caso il supporto da parte delle telco è totale, in quanto consentirà di aprire un vero e proprio segmento di mercato oggi praticamente inesplorato. Uno studio focalizzato sulla forte crescita del numero di dispositivi M2M e IoT induce a prevedere che la distribuzione di e-SIM supererà quello delle carte SIM tradizionali nel corso dei prossimi anni. Secondo un'indagine condotta da Juniper Research, entro il 2020 la eSIM rappresenterà oltre il 50% delle connessioni M2M (machine-to-machine, quelle appunto inserite nei vari dispositivi connessi). Dotando sin dalla fabbrica gli apparecchi di E-Sim, gli operatori delle telecomunicazioni non si ritroverebbero più a fungere da intermediari come accade nel presente: il terminale diventa, quindi, parte attiva, scartando una compagnia per un’altra sulla base del criterio del campo disponibile: il numero di telefono associato alla SIM, si libera dal vecchio vincolo dell’appartenenza ad un brand piuttosto che un altro, superando anche il concetto di roaming. Grazie all’eSIM, inoltre, smartwatch e smartband non avranno più bisogno di essere costantemente collegati al proprio smartphone via Bluetooth, in quanto essi potranno godere di connettività “propria”, garantita dalle reti GSM e dalle loro evoluzioni (3G, LTE), il tutto senza dover collegare alcuna scheda al dispositivo. Prodotti come automobili, wearable, elettrodomestici (solo per citarne alcuni), cominceranno ad essere realizzati con a bordo proprio questa soluzione, che consentirà di poter definitivamente far esplodere il fenomeno della Internet of Things, aprendo alle telco un mercato da miliardi di dollari.

Gianluca Cimini

]]>
Tue, 2 May 2017 17:49:15 +0000 http://www.gianlucacimini.it/mc/520/1/e-sim-l-evoluzione-della-comunicazione-mobile-abbraccia-l-iot gianlucacimini2016@gmail.com (Gianluca Cimini)
Shenzen, dove la Cina tenta di diventare la nuova Silicon Valley http://www.gianlucacimini.it/mc/519/1/shenzen-dove-la-cina-tenta-di-diventare-la-nuova-silicon-valley

Dal 1971, anno in cui per la prima volta è stato coniato il nome corrente dal giornalista Don C.Hoefler, la cosiddetta “valle del silicio” è stata il paradiso mondiale per innovatori, startup ed industrie pronte a lanciarsi sul mercato tecnologico, in primis come fabbricanti di semiconduttori e di microchip, e a seguire per produttori di software e fornitori di servizi di rete attratti dalle caratteristiche peculiari della “Bay area” che si trova nella parte meridionale dell’area metropolitana della Baia di San Francisco. La Silicon Valley, diventata quasi un luogo mitologico di culto, ha visto crescere esponenzialmente fin dal 1939, anno di fondazione dell’ Hewlett-Packard, prima grande azienda di elettronica civile a stabilirsi nell’area, il numero di aziende ad alta tecnologia che hanno deciso di creare il loro quartiere generale in questa mitica parte d’America: Apple, Amazon, Cisco, Ebay, Facebook, Google, Intel, Microsoft, Netflix, Paypal, Samsung, Yahoo, solo per citarne le principali. Per decenni la Silicon valley è stata il posto dove le idee, specie se innovative, diventavano realtà: con un livello di disoccupazione minore del 15%, qui chiunque abbia competenze, passione e voglia di fare, ha buone possibilità di trovare un lavoro adeguato. L’ossessione per i grandi manager è di puntare alla gente giovane e volenterosa, ma soprattutto alle grandi idee che potrebbero diventare il business del futuro. Il dinamismo qui, più che in altre parti del mondo, inutile citare la situazione italiana che tutti un po’ conosciamo, è un valore aggiunto tra i più importanti. E mentre in America per questo 2017 si punta molto alle tecnologie legate alla Realtà Virtuale e alla Realtà Aumentata, all’avvento della Smart Home, alle Intelligenze Artificiali ancora più evolute, all’Internet delle Cose e a molte altre scommesse che potrebbero decretare il prodotto o l’idea del futuro, l’altra parte del mondo non sta a guardare con le mani in mano.

Trentasei anni, questo il tempo che c’è voluto per far diventare un villaggio di pescatori immerso dentro la natura una megalopoli da più di 10 milioni di abitanti, fatta di grattacieli altissimi e di uno skyline in continuo mutamento, capace di produrre da sola il 30% del PIL nazionale cinese. A più di diecimila chilometri di distanza dalla California così “Shenzen", nel sud della Cina, sfida l’America per salire al primo posto nel business delle telecomunicazioni. Le distanze con la Silicon Valley, grazie al supporto della Repubblica Popolare Cinese su sovvenzioni e prestiti, oggi si accorciano sempre di più. Trentasei anni, il periodo in cui il PIL medio di Shenzen è cresciuto con un tasso medio annuo del 22%, una cifra quasi impossibile da immaginare, specie se come me aveste visto le foto di quel piccolo villaggio di pescatori scattate nel 1980. Un boom che si è verificato non solo, però , grazie al supporto dello stato cinese, ma anche alle tante aziende statunitensi che su quel territorio hanno puntato negli anni per delocalizzare, ovviamente con spese minori rispetto al suolo americano, la produzione hardware. All’inizio degli anni ottanta, come accennato, sono arrivati, quindi, i primi investimenti stranieri spinti dalle condizioni fiscali favorevoli offerte dal governo. Investire subito e regolamentare successivamente è stato il motto della città, infatti, che ha giustificato solo a posteriori l’immane ingresso di fondi internazionali grazie ad un quadro giuridico costruito ad hoc.

Shenzhen, città industriale nella provincia meridionale di Guangdong, può essere definita oggi senza dubbio la Cupertino cinese. Anche perché, dopotutto, tutti gli iPhone della “mela” vengono costruiti qui, nella gigantesca azienda chiamata “Foxconn” che dà lavoro a più di un milione di lavoratori a suon di tablet e smartphone costruiti con tecniche avanzatissime a fronte di una manodopera sicuramente “conveniente”, ma non per questo di scarsa qualità. Leggi differenti o anche la mancanza di una regolamentazione precisa sui diritti dei lavoratori permettono a queste grandi aziende di “ottimizzare” il lavoro a fronte di turni lunghi, ripetitivi e massacranti. Da quello che rivelano i racconti di certi ex operai le condizioni di lavoro nelle fabbriche cinesi non sono delle migliori, anzi, tutto si riduce magari in un turno di 12 ore a compiere lo stesso movimento meccanico di inserimento di una vite nella parte posteriore di uno smartphone per circa 1800 volte al giorno, con poche pause e il controllo assoluto sulla catena di montaggio così da rimproverare i lavoratori poco efficienti togliendo denaro dallo stipendio. Triste sentire che il bene dei lavoratori probabilmente viene subordinato alla produzione industriale, sicuramente sono notizie che non sorprendono, ma che continuano a fare male.

Anche il terzo produttore di smartphone al mondo dopo Apple e Samsung ha il suo quartiere generale qui e prodotti sempre più venduti anche in Italia arrivano da noi con il marchio “Huawei”. Una città nella città, praticamente, dove lavorano e vivono dentro 3200 appartamenti circa 50 mila persone. Un’azienda in crescita capace non solo di seguire le altre aziende leader del settore, ma anche di impegnare parte del proprio fatturato nel campo della Ricerca e Sviluppo con cifre ragguardevoli ( il 10% del proprio fatturato annuale va a questa divisione di fronte ad un 3,5% nel caso di Apple nella stessa divisione, per esempio) con l’obiettivo di passare da semplici produttori ad innovatori mondiali; e qui basta leggere i dati aggiornati riguardanti l’incremento esponenziale dei brevetti in ambito tecnologico registrati in Cina a partire dagli anni 2000 per capire quanto ormai la grande Repubblica Popolare Cinese si appresti ad insidiare l’America in questa particolare classifica. Un obiettivo portato avanti anche grazie all’importanza data alla formazione dei lavoratori nel settore hi-tech: Huawei per esempio ha lanciato il programma “0” per offrire corsi di alta formazione a circa duemila studenti europei nei prossimi cinque anni.

Modernità ed innovazione si incontrano così a Shenzen, nella città che da sola riprende molte delle sfaccettature e delle contraddizioni della Repubblica Popolare Cinese, dove prende forma il futuro in una città in divenire sospesa tra un passato rurale e un presente in cui il mantra è il consumo e l’obiettivo crescere e dominare il mercato.

Gianluca Cimini

]]>
Thu, 27 Apr 2017 22:17:56 +0000 http://www.gianlucacimini.it/mc/519/1/shenzen-dove-la-cina-tenta-di-diventare-la-nuova-silicon-valley gianlucacimini2016@gmail.com (Gianluca Cimini)
Earth Day 2017: il mondo delle rinnovabili è in continua crescita - di Gianluca Cimini http://www.gianlucacimini.it/mc/518/1/earth-day-2017-il-mondo-delle-rinnovabili-e-in-continua-crescita---di-gianluca-cimini

Giunta ormai alla quarantasettesima edizione, torna il 22 aprile la “Giornata Mondiale della Terra”, un’occasione per ricordarci quanto importante sia salvaguardare il nostro pianeta promuovendo cambiamenti nelle politiche e nei nostri modi di vivere quotidiani. Fortemente voluta dal senatore statunitense Gaylord Nelson, e nata il 22 aprile 1970 come movimento universitario ecologista, “l’Earth Day” coinvolge ogni anno fino a un miliardo di persone sul pianeta grazie a manifestazioni che si svolgono nelle piazze più importanti del mondo, ed anche in questo caso l’Italia non sarà da meno, grazie a numerosi eventi ed iniziative per commemorare e salvaguardare il nostro pianeta (in primis e per il quarto anno consecutivo Villa Borghese a Roma ospiterà dal 21 al 25 aprile il “Villaggio per la Terra” dove si parlerà principalmente del tema “Educazione ambientale in festival”). Nato in America (a seguito del disastro ambientale di Santa Barbara nel 1969) l’Earth day si è, quindi, largamente diffuso a livello globale a partire dall’anno 2000 presentandosi come un momento unico per affrontare molte delle problematiche contro cui il nostro pianeta si trova a dover combattere: dalla distruzione degli ecosistemi all’inquinamento di aria, acqua e suolo, dall’esaurimento delle risorse non rinnovabili all’estinzione di migliaia di piante e specie animali. “Se lo scorso anno abbiamo festeggiato lo storico accordo sul clima di Parigi, che vedeva uniti i 193 Paesi dell’ONU nella volontà di contenere le emissioni di C02, quest’anno Earth Day Italia vuole lanciare un messaggio forte e di stimolo nei confronti di tutte quelle politiche che, cavalcando il generale clima di sfiducia e rabbia, alzano muri e continuano a sfruttare senza remore le risorse naturali. Con il Villaggio per la Terra vogliamo mettere in scena e in festa il sentimento di solidarietà universale che esiste ancora, potente, tra le persone e che è capace di generare il cambiamento. Per questo invito tutti i cittadini a unirsi e partecipare” questo l’augurio di Pierluigi Sassi, presidente di Earth Day Italia.

Un evento di così importante spessore mi ha dato modo di pensare ancor di più a come effettivamente ci si stia muovendo sul tema dell’ecologia e dell’energia sulla terra, perché anche se già un miliardario filantropo come Elon Musk sta parlando della colonizzazione di Marte e dei viaggi spaziali che inizieranno a breve, sarà ancora il nostro pianeta Terra a doverci accogliere per ancora qualche annetto. Il continuo innovare di Tesla, azienda leader di Elon Musk, che non produce solo automobili, ma si occupa anche di elettricità, vuole essere uno spunto per tutto il mondo a passare all’energia rinnovabile, l’idea è facilmente comprensibile ed altamente affascinante: vivere in un mondo capace di abbandonare l’utilizzo dei combustibili fossili per il suo fabbisogno energetico. Nei calcoli del magnate, con l’ausilio di 100 Gigafactory a pieno regime sarebbe possibile produrre energia rinnovabile per il mondo intero. Una Gigafactory non è altro che un enorme fabbrica di batterie di Tesla alimentate ad energia solare, citata anche nel documentario di Leonardo Di Caprio sul riscaldamento globale, che si sta ultimando in Nevada negli Stati Uniti. Una volta completata la fabbrica sarà più grande di 100 campi da calcio messi insieme e fornirà lavoro a più di 22 mila persone. Cifre importanti ed altissime a parte, l’obiettivo immediato sarà quello di ridurre i costi delle batterie per i prodotti Tesla, ma subito dopo il progetto potrebbe interessare numeri ancora più grandi se , effettivamente, le affermazioni di Musk su un mondo alimentato totalmente da energia sostenibile fossero veritiere. Staremo a vedere, sicuramente ogni affermazione dell’eccentrico magnate riesce sempre a lasciarmi con domande e temi interessanti a cui dedicarmi con maggiore concentrazione. Come se lo scopo ultimo delle sue aziende fosse quello di regalare al mondo un futuro migliore, ultimamente Musk ha affermato sul tema, a favore dei paesi in via di sviluppo e con una popolazione sempre più numerosa, che: «Il vantaggio di avere batterie che si ricaricano con l’energia solare è che si può evitare di costruire centrali elettriche. Un villaggio sperduto può ricavare l’energia che gli serve da batterie alimentate col sole, senza dipendere da migliaia di tralicci ad alta tensione. È più o meno quello che è già successo con le linee telefoniche: nei paesi in via di sviluppo non hanno costruito le linee telefoniche fisse, ma sono passati direttamente a quelle mobili».

Un mondo sempre più “green” è anche quello che viene descritto da uno studio commissionato da Greenpeace e realizzato dal centro di ricerca CE Delft, che analizza le politiche e la situazione dei singoli paesi europei: entro il 2050 metà dei cittadini europei genererà da solo l'energia necessaria al proprio fabbisogno, rivendendo il surplus sul mercato. Tradotta questa affermazione vorrebbe dire che entro 35 anni da oggi più di 264 milioni di persone (tra singole famiglie e piccole e medie imprese) saranno in grado di coprire il 45% del fabbisogno elettrico europeo grazie all'energia rinnovabile. L’Italia, secondo Greenpeace, ha grandi potenzialità, ma ha la necessità di provvedimenti più chiari capaci di sancire il diritto per le persone di produrre la propria energia rinnovabile fatta in casa, rivoluzionando in questo modo il sistema energetico europeo e togliendo il supporto alle grandi aziende che inquinano. La previsione, se ciò avverrà, con tariffe adeguate per i cittadini che immettono in rete l'elettricità prodotta in eccesso e che usano sistemi di accumulo e sono impegnati nella gestione della domanda, è che in Italia entro il 2050 almeno due italiani su cinque potranno contribuire alla produzione di energia. Tutto in linea, quindi, con il progetto più grande del presidente dell’UE Juncker di far diventare l’Europa il “numero uno delle energie rinnovabili”.

Per fortuna, mentre da una parte c’è ancora chi nega l’effetto serra e l’importanza di politiche mondiali per salvaguardare il paese, il tema dell’ecologia e del fabbisogno energetico del nostro pianeta rimane in primo piano: da Google, per esempio, che entro il 2017 coprirà tutta la sua richiesta energetica da energia rinnovabile e pulita, agli studi in California per recuperare energia dagli ingorghi stradali, o all’energia pulita in Scozia fornita dalle correnti sottomarine. Il mondo appare così un pò più “green” e non posso che felicitarmene.

]]>
Mon, 24 Apr 2017 19:01:11 +0000 http://www.gianlucacimini.it/mc/518/1/earth-day-2017-il-mondo-delle-rinnovabili-e-in-continua-crescita---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
5G e IoT: il matrimonio perfetto per la connessione del futuro - di Gianluca Cimini http://www.gianlucacimini.it/mc/517/1/5g-e-iot-il-matrimonio-perfetto-per-la-connessione-del-futuro---di-gianluca-cimini

Più di un miliardo di connessioni 5G entro il 2025, queste le previsioni di GSMA, l’associazione che riunisce le aziende operative nella telefonia mobile, rivelate durante lo scorso Mobile World Congress di Barcellona. Una tecnologia quella ultra veloce ed in velocità che rivoluzionerà la comunicazione offrendo potenzialità sempre maggiori alla telefonia mobile e, soprattutto, porterà l’internet delle cose e gli oggetti connessi ad un livello superiore. Quello tra 5G e IoT (Internet of Things ) potrebbe essere, infatti, il matrimonio perfetto, ci tengo a spiegarvi il perché di questa  mia affermazione.

Il nuovo standard, successore ed evoluzione del 4G, verrà definito a livello unificato e globale entro il 2018 e si espanderà su larga scala già per la fine del 2019 secondo le varie stime degli esperti del settore. L’obiettivo principale del 5G è riuscire a garantire una banda dati tale da garantire la connessione veloce all’aumento dei dispositivi elettronici attivi e passivi che avverrà esponenzialmente nei prossimi anni. Con il passaggio alle velocità approssimative di 100 o 200 megabit al secondo del 4G, con il 5G metteremo effettivamente il turbo alle nostre connessioni mobili. Ogni cella dati sarà in grado di supportare fino a 20 Gbps in download e fino a 10 Gbps in upload (tale banda sarà ripartita ovviamente per tutti i dispositivi connessi). Sempre per questo motivo, ogni cella sarà in grado di supportare fino a 1 milione di dispositivi per chilometro quadrato e questo aprirà ancora di più le porte all’IoT. Non soltanto maggiore velocità, ma anche reti più fitte, più vicine agli utenti, grazie a un proliferare di piccole celle. Si supererà in un colpo solo il gap esistente con l’odierna fibra ottica, già di per sé molto performante al momento: velocità oltre 25 volte maggiori ed, inoltre, senza la necessità di costose infrastrutture fisse. Utilizzando bande più elevate, oggi usate di rado, il 5G consentirà di inviare e ricevere un volume maggiore di dati in modo più rapido, usando quantità illimitate di frequenze nella medesima connessione. La mobilità, con il 5G, diventerà davvero parte della nostra vita, abbattendo le ultime distanze rimaste tra noi e tutto ciò che è connesso a internet. E questo anche grazie alle nuove latenze: quelle massime del 5G sono di 4 millisecondi, secondo l'ITU (agenzia Onu per le telecomunicazioni). A parte una velocità maggiore per l’invio e la ricezione dei dati, cosa effettivamente porterà la rivoluzione 5G me lo sto chiedendo da giorni, i campi di utilizzo sono molteplici. La differenza si vedrà a livello collettivo, più ancora che nell’esperienza dei singoli utenti, con il 5G sarà però possibile collegare tra loro, tutti insieme, un’enorme quantità di sensori e dispositivi, per permettere una trasmissione dati rapidissima. La bassa latenza del nuovo standard permetterà di connettere sensori con grande affidabilità alla città del futuro, una smart city che sfrutterà così le nuove performance nel campo dell’energia e delle varie utility cittadine quali luce, gas e acqua, controllando consumi e fabbisogni, riducendo gli sprechi ed evitando i blackout (immaginate dei lampioni “smart” che si attivano solo quando “captano” persone o veicoli). Gli stessi sensori consentiranno di gestire in maniera più efficiente il traffico ed il trasporto pubblico grazie ad aggiornamenti in tempo reale (lo scenario prevede anche automobili connesse tra loro in maniera automatica per prevenire rallentamenti o incidenti sul percorso e ridurre la congestione stradale). A livello di sicurezza inoltre, grazie alla molta banda disponibile sulla rete, le varie telecamere e sensori potranno più facilmente avvertire e rivelare un pericolo mettendo così in moto un sistema di allarme immediato. Per quando riguarda l’intrattenimento, inoltre, si aprirà il mondo mobile allo streaming in ultra alta definizione ed alla realtà virtuale che richiede molta banda per funzionare a dovere. I test per la nuova tecnologia di comunicazione nel frattempo non smettono di fermarsi e così in Corea del Sud, per esempio, grazie ai nuovi prototipi di antenne fissate sui montacarichi delle automobili è stato possibile effettuare una trasmissione di dati da punto a punto in movimento, veloce e stabile, anche su un’automobile lanciata alla velocità di 170 chilometri orari. Test riuscito e che apre, quindi, il sogno di collegare migliaia di oggetti contemporaneamente, abilitando la connessione tra i veicoli e tra il veicolo e le infrastrutture della città, permettendo alle auto di identificare eventuali pericoli, avere informazioni sul traffico e mappe costantemente aggiornate. Al Mobile World Congress, inoltre, un’auto reale connessa su una pista a 50 km dalla fiera è stata guidata tramite un simulatore attraverso lo scambio di dati sulla rete 5G, fondamentale, quando si parla di frenate immediate è stato il tempo ridottissimo di latenza che apre scenari ancora più fantascientifici (ma che stanno diventando sempre più reali) come anche quello di un altro esperimento nel campo della telemedicina , dove una telecamera ha ripreso un paziente e mandato immagini in tempo reale ad un medico dall’altra parte del mondo, che attraverso un visore di realtà virtuale ed un guanto elettronico poteva controllare un robot che materialmente eseguiva l’operazione. Ed intanto già da ora l’americana Verizon si è detta pronta ad offrire il suo servizio 5G ai consumatori di 11 città per sperimentare e testare la sua prima rete super veloce, un test che aprirà ancora di più le porte a questa tecnologia.

Come ogni nuova tecnologia il successo si baserà su come effettivamente verrà sfruttata e su quali servizi riuscirà ad offrire agli utenti di rete mobile (che entro il 2021 saranno circa 5,5 miliardi). Le stime di Accenture, secondo un recente rapporto internazionale sugli scenari di utilizzo delle future reti, ci dicono che il nuovo standard potrebbe, solo negli Stati Uniti, creare fino a 3 milioni di nuovi posti di lavoro e contribuire fino a 500 miliardi di dollari sul PIL americano tra investimenti diretti ed indotto. Un giro di affari mondiale, stavolta secondo Ericsson e Arthur D.Little, previsto di 46 miliardi di dollari entro il 2021 fino ai 582 miliardi nel 2026. Sono questi dati non certi, ma sicuramente incoraggianti, si apre insomma un mercato mondiale molto redditizio dove è fondamentale non rimanere indietro, lo dico anche per la questione italiana sull’assegnazione delle future frequenze radio che tarda ad arrivare e che potrebbe, quindi, posticipare l’arrivo del 5G nel nostro paese. Ancora una volta è la politica italiana che deve impegnarsi a cancellare questo gap rispetto agli altri paesi del mondo, mi auguro che sarà così. Insomma, connettività illimitata, automazione intelligente, maggiore copertura territoriale e accesso facilitato a internet: il 5G ha le carte in regola per cambiare la nostra esperienza, i dispositivi elettronici fissi appartengono ormai al passato. La mobilità veloce è il futuro che ci attende e che si prefigura già da ora pieno di potenzialità.

Gianluca Cimini

]]>
Wed, 19 Apr 2017 17:52:48 +0000 http://www.gianlucacimini.it/mc/517/1/5g-e-iot-il-matrimonio-perfetto-per-la-connessione-del-futuro---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Dieci anni di competizioni tra Hacker a caccia di bug: il "Pwn2Own" 2017 http://www.gianlucacimini.it/mc/516/1/dieci-anni-di-competizioni-tra-hacker-a-caccia-di-bug-il-pwn2own-2017

Arrivata alla sua decima edizione, e conclusa pochi giorni fa, la competizione tra hacker per eccellenza chiamata “Pwn2Own” ha decretato anche quest’anno quali sono i software più afflitti da eventuali bug di programmazione che li rendono quindi meno sicuri e più idonei ad eventuali attacchi. Il termine con cui si indica questo importante evento di hacker si riferisce ai verbi inglesi “to pwn” che significa hackerare e al termine “to own” che viene utilizzato invece nei videogiochi per umiliare l’avversario sconfitto. Scopo finale della competizione è, infatti, quello di riuscire a trovare delle falle in specifici software, in particolare modo i browser per navigare su internet, e i sistemi operativi degli smartphone di ultima generazione, in maniera tale da risolvere anche gli eventuali bug di programmazione per creare prodotti sempre migliori (anche se programmi perfetti ed inattaccabili difficilmente mai esisteranno proprio per la grande difficoltà che risiede intrinseca nella programmazione informatica con le sue tante variabili di cui un programmatore deve sempre tener conto). Ai vincitori della competizione vanno sia un premio in denaro (variabile, ma che nel 2012 ha raggiunto la ragguardevole cifra di un milione di euro offerta da Google a chi avesse “bucato” Google Chrome), sia il computer o l’apparecchio su cui sono riusciti ad eseguire l’exploit. Anno dopo anno il successo dell’evento è stato sempre maggiore e sono tanti i nomi importanti (come: Internet Explorer, Mozilla Firefox, Google Chrome, Safari, BlackBerry, iPhone, Android, Windows Phone) che sono caduti in battaglia durante questa decade.

Grattacapi sono stati registrati praticamente per quasi qualsiasi altro software famoso in circolazione: Microsoft Edge, il browser moderno preinstallato su Windows 10 e fermo ancora al 5% di quota di mercato, è risultato il browser meno sicuro poiché vittima del numero maggiore di exploit, hackerato almeno cinque volte in tre giorni specialmente a causa dell’engine JavaScript Chakra. A onor del vero bisogna anche dire che sì, effettivamente Microsoft Windows e Microsoft Edge sono stati i software maggiormente attaccati nei tre giorni della manifestazione, ma la maggior parte degli attacchi sono comunque riusciti. Inoltre la scelta potrebbe essere stata dettata proprio dalla consapevolezza da parte dei team di una debolezza strutturale che avrebbe favorito il successo. Nel campo dei browser a seguire abbiamo trovato Safari, il browser dei Mac, violato tre volte, e poi Mozilla Firefox che ha subito due attacchi tentati di cui solo uno è andato a buon fine. Solo Chrome di Google è riuscito indenne dalla competizione: su un solo tentativo di aggressione il team di hacker non è riuscito a completare l’exploit nei tempi indicati per la competizione.

Questa decima edizione ha fatto segnare, però, un record rispetto alle edizioni precedenti, per la prima volta, infatti, in un solo attacco hacker sono stati violati browser, sistema operativo e virtual machine. Le virtual machine (macchine virtuali) vengono solitamente utilizzate per isolare sistema operativo e dati dei singoli clienti in un servizio di hosting. VMWare Workstation è, invece, molto popolare tra gli utenti desktop che vogliono mantenere separato il sistema operativo host (quello in cui viene eseguita la virtual machine) dal sistema operativo guest (quello eseguito nella virtual machine). Ciò dovrebbe impedire ai contenuti infetti di passare dal secondo al primo, superando le difese della macchina virtuale. L’hack in questione ha comunque messo in chiaro che la massima sicurezza non è garantita nemmeno da una virtual machine. La tripletta è stata ottenuta da ben due team differenti presenti all’evento che così hanno potuto portarsi a casa un assegno sostanzioso e la vetta della classifica generale. Per ottenere questo straordinario risultato il team di hacker cinese “360 Security” ha prima trovato il bug all’interno di Microsoft “Edge”, per poi passare subito dopo all’immagine di Windows su cui girava ed, infine , alla virtual machine che gestiva il sistema operativo in esecuzione, e tutto nel tempo record di 90 secondi sfruttando sia un bug heap overflow sul browser, sia un buffer non inizializzato su VMWare Workstation, ed infine un bug nel kernel di Windows.. Vulnerabilità diverse per risultati simili che hanno portato un altro team, il Tencent Security Team Sniper ad ottenere lo stesso risultato pur non avendo utilizzato a bordo della virtual machine strumenti software di alcun genere in grado di mettere in comunicazione il sistema operativo ospite con l’hardware della macchina.

Altri exploit, meno eclatanti, ma comunque importanti, hanno portato a dimostrare la profonda preparazione e bravura degli hacker che hanno saputo per esempio piazzare una scritta arbitraria sulla Touchbar interattiva dell’ultima versione dei MacBook grazie ad una falla di Safari per accedere alla struttura di Mac Os, un chiaro esempio di come anche il sistema operativo di Cupertino non sia così sicuro come si è pubblicizzato invece per anni. Sorti simili per Adobe con i buchi verso sia Flash sia Reader, e per la prima volta in questa edizione verso Ubuntu Linux 16.10. Fortunatamente, dopotutto è proprio questo lo scopo della competizione, tutte le vulnerabilità sfruttate durante la competizione di hacking vengono segnalate ai rispettivi sviluppatori, in questo modo le società hanno modo e tempo di risolverle e di rilasciare aggiornamenti di sicurezza: solo dopo questo passaggio vengono rese di pubblico dominio.

Molte cose sono cambiate in dieci anni di evoluzione tecnologica: quando è nato questo particolare evento ancora non si parlava della crescita dei “ransomware”, di attacchi hacker tra blocchi continentali contrapposti, dell’evoluzione del “cloud”, dell’esplosione dei “bitcoin”, né nessuno aveva mai sentito parlare dell’ “Internet of Things”; semplicemente perché molte di queste creazioni tecnologiche esistevano solo in chiave teorica prima di crescere ed affermarsi nel mondo reale come possiamo vederlo con i nostri occhi in questo momento. E più cresce l’importanza della tecnologia nella nostra vita, più ovviamente crescono proporzionalmente i rischi legati a tale tecnologia che permea la nostra vita e che lo farà sempre di più negli anni a venire.

Gianluca Cimini

]]>
Sat, 15 Apr 2017 12:40:38 +0000 http://www.gianlucacimini.it/mc/516/1/dieci-anni-di-competizioni-tra-hacker-a-caccia-di-bug-il-pwn2own-2017 gianlucacimini2016@gmail.com (Gianluca Cimini)
Il fuoco non ferma la cultura: a Napoli riapre la Città della Scienza - di Gianluca Cimini http://www.gianlucacimini.it/mc/515/1/il-fuoco-non-ferma-la-cultura-a-napoli-riapre-la-citta-della-scienza---di-gianluca-cimini

Era il 4 marzo del 2013 quando una della strutture didattiche per la cultura scientifica più grandi e prestigiose d’Italia, a seguito di un incendio doloso, smetteva di esistere. A distanza di 4 anni rinasce presso lo stesso terreno che l’aveva ospitata la prima volta, ossia a Bagnoli in provincia di Napoli, la Città della Scienza che ospiterà anche “Corporea” il più grande museo interattivo d’Europa sui segreti del corpo umano ed un Planetario che fungerà anche da cinema 3D. Per combattere l’ignoranza e la violenza non c’è modo migliore, a mio avviso, di mostrare l’Italia che vale e che segue i suoi obiettivi e risultati: il progetto per la ricostruzione della Città è stato firmato in tempi record, per come siamo stati abituati almeno, come in tempi record la Città ha visto la sua rinascita. Solo lavorando a testa bassa e senza intoppi, con la volontà di farlo, si può raggiungere un obiettivo importante come questo, ossia quello di tornare ad essere un punto di riferimento nel panorama delle istituzioni culturali del Paese e del territorio. Grazie al crowfunding che ha permesso di raccogliere 1,4 milioni di euro dalla solidarietà di tante persone ed associazioni e grazie all’imponente finanziamento statale, per un importo complessivo di 23,9 milioni di cui 18,6 con fondi della Regione e 5,3 a carico di Città della Scienza, è tornato dalle ceneri, in questo caso il termine mi pare alquanto appropriato, un grande complesso scientifico che vuole essere, anche e soprattutto, un grande polo di attrazione turistica. Il presidente del Senato Pietro Grasso si è così espresso, con convinzione, riguardo alla riapertura della Città: "accanto a una crescita storica, culturale e artistica, l'innovazione tecnologica dia sviluppo, dia lavoro e serva anche a migliorare la vita dei cittadini".

Il nuovo polo scientifico museale, che si appresta a diventare il più grande d’Italia, include molti laboratori di robotica 4.0 ed un incubatore di impresa che, nei primi 2-3 anni di funzionamento, ha già dato il via a 150 nuove aziende tecnologiche, con l’obiettivo di mettere in moto in Campania un processo capace di puntare all’innovazione ed alle start-up capace di rendere l’area un polo strategico per lo sviluppo. Il vero punto forte della riapertura del nuovo museo sarà inizialmente quello della mostra “Corporea” nella quale i visitatori vivranno un viaggio nella macchina perfetta del nostro organismo per imparare e conoscere attraverso la sperimentazione ed il divertimento: sugli oltre 5000  metri quadrati della Città, divisi su tre livelli, si trovano, infatti, 14 isole tematiche legate ai diversi apparati del corpo umano in cui attraverso esposizioni, esperienze di realtà virtuale, video immersivi, macroinstallazioni e postazioni interattive i grandi, ma specialmente i più piccoli , potranno coniugare conoscenza, educazione e divertimento. La particolarità unica di Corporea è quella di integrare il linguaggio espositivo tradizionale con prestiti da musei e collezioni antiche, con esperimenti “hands-on” introducendo il mondo dei Fab Lab e dei “Makers” come esperimento da vivere in diretta: si entra così, per esempio, nelle cavità più recondite del corpo, camminando nelle vene e nelle arterie, e si sbuca nelle vie biliari. Giochi, laboratori e sperimentazioni per un approccio diverso e sicuramente interessante alla scienza, che sicuramente saranno utili per far crescere l’interesse di tante persone verso qualcosa di unico e magico com’è il nostro corpo umano. “Il museo del corpo umano – afferma, infatti, Vittorio Silvestrini, fondatore e presidente di Città della Scienza – ha l’obiettivo di aiutare a governare e trattare nel modo giusto il grande tesoro che ci viene dato con la vita. ‘Corporea’ è il primo museo interattivo in Europa interamente dedicato al tema della salute, delle scienze e tecnologie biomedicali e della prevenzione, basato sulla sperimentazione diretta dei fenomeni da parte dei visitatori”.

Il più grande ed avanzato planetario 3D d’Italia, come viene pubblicizzato il “Dome/3D”, offrirà, invece, 120 posti a sedere all’interno di una stanza da 20 metri di diametro. Di ultima generazione, e tra le più avanzate al mondo, sarà la macchina che aprirà lo sguardo attraverso il cosmo infinito grazie alla speciale collocazione della cupola che garantisce un effetto di completo coinvolgimento dello spettatore anche grazie ad un’acustica che garantirà al pubblico uno spettacolo dell’universo unico ed avvolgente. Non mancheranno, inoltre, spettacoli e filmati che ci aiuteranno a scoprire i vari, ed aggiungo affascinanti, segreti dell’universo: dalle vecchie missioni spaziali, al ruolo della materia oscura nell’Universo, passando dalle teorie degli antichi astronomi Greci sulle stelle a come proteggere i cieli stellati dall’inquinamento luminoso. Dal viaggio all’interno del Corpo Umano, fino a quello interstellare, dai segreti infinitamente piccoli del corpo umano, a quelli vasti e in gran parte ancora non sondati dell'universo che scorgiamo alzando gli occhi: la conoscenza non è mai abbastanza e non si ferma mai. Prima dell’incendio la Città della Scienza aveva circa 350 mila visitatori annuali, l’obiettivo a detta degli organizzatori, una volta completati totalmente i lavori (previsti per il 2020), sarebbe quello di incrementare ad oltre 500 mila il numero di questi appassionati di scienza e se le cose andranno come previsto, come mi auguro fortemente, non mi sorprenderebbe che certi risultati siano non solo raggiunti ma superati. L’obiettivo della Città con le sue caratteristiche peculiari, sia di museo sia di incubatore di start-up, è di guardare al futuro affinché non si crei solo un luogo per la memoria del passato, ma si invitino le persone a pensare e creare per un futuro migliore.

Gianluca Cimini

]]>
Wed, 12 Apr 2017 23:44:37 +0000 http://www.gianlucacimini.it/mc/515/1/il-fuoco-non-ferma-la-cultura-a-napoli-riapre-la-citta-della-scienza---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Consumo critico e ricerca del pezzo unico: il boom della circular economy - di Gianluca Cimini http://www.gianlucacimini.it/mc/514/1/consumo-critico-e-ricerca-del-pezzo-unico-il-boom-della-circular-economy---di-gianluca-cimini

Grazie al fiorire dei portali online dedicati alla compravendita dell’usato, il mercato dei prodotti di seconda mano si continua ad affermare come uno dei più vivi ed importanti del paese, capace di muovere più di 19 miliardi di euro e di contribuire al PIL Nazionale con una percentuale vicina all’1,1%, in crescita di un miliardo di euro rispetto al 2015. I dati che ho appena esposto derivano da una ricerca Doxa commissionata dal famoso portale subito.it (l’azienda del settore più 'cliccata' in assoluto, con oltre 8 milioni di utenti unici mensili) che ci chiarisce il successo crescente di questa economia dell’usato, legata non solo, in parte, alla crisi economica del momento, ma anche ad una nuova concezione dei beni di consumo collegata ad un consumo più critico ed alla ricerca di pezzi unici e non commerciali. Le grandi piattaforme tecnologiche come ebay e subito, tanto per citare le maggiori, ma ne esistono di tutti i tipi e categorie, hanno aiutato a far crescere il mercato dell’usato come mai era stato possibile prima d’ora: è sul web, infatti, che gli italiani hanno dimostrato di avere un approccio più dinamico agli scambi delle merci di 'seconda mano' rispetto agli ambiti tradizionali come le concessionarie o i mercatini. Comprare e vendere prodotti usati è diventato così quasi uno stile di vita, per un consumo più responsabile che dà valore ai singoli oggetti e per la ricerca, come dicevo, di prodotti particolari e non in commercio attraverso i normali grandi magazzini.

Secondo il cosiddetto modello qui adottato della “circular economy” il consumatore riveste un ruolo più centrale e più consapevole nella vita di un bene, sentendosi responsabile dal momento del suo acquisto fino a quello del suo smaltimento, allungandone così alla fine anche il ciclo di vita grazie al riuso. L’economia circolare tende, infatti, ad interrompere il classico ciclo “acquisto-consumo-smaltimento” ponendo, invece, l’attenzione sul valore del prodotto e sul suo uso protratto nel tempo attraverso una maggiore cura ed una seconda vendita come prodotto usato ad un prezzo vantaggioso per il secondo acquirente. Grazie al boom degli smartphone questi acquisti oggi si fanno sempre di più in mobilità grazie alla possibilità di cercare prodotti che ci interessano a partire non solo dal prezzo e dallo stato del prodotto, ma anche dalla geo-localizzazione del bene messo in vendita, e così gli utenti, di tutte le età, ma specialmente i giovani, vivono con naturalezza l’acquisto e la vendita di prodotti usati online cercando così di togliersi qualche sfizio o di seguire magari l’oggetto tecnologico del momento mettendo in vendita il modello precedente già posseduto.

La componente digitale della “second hand economy" è, come facilmente immaginabile, molto rilevante. E così dalla ricerca emerge che il 47% della popolazione italiana maggiorenne ha acquistato o venduto oggetti usati, la maggior parte di questi proprio grazie al fiorire delle piattaforme di compravendita online che valgono circa 7,1 miliardi di euro (ossia 300 milioni in più rispetto al 2015). I prodotti più ricercati e venduti fanno parte del settore dei motori, seguito dai prodotti per la casa e per la persona, dall’elettronica ed, infine, dal settore degli sport e degli hobby. Ogni italiano che sfrutta la cosiddetta economia di seconda mano di media, a fine anno, risparmia circa 900 euro che spesso vanno poi resinvestiti in altre spese, secondo il trend del momento, non per prodotti ma per esperienze, la spesa “esperienziale” è, infatti, in forte crescita.

“La terza edizione dell’Osservatorio Second Hand Economy per Subito evidenzia come la popolazione italiana sia costantemente interessata a comprare e vendere usato in particolare online”, commenta Guido Argieri, Customer Interaction & Monitoring, Head of Department di DOXA. “La progressiva digitalizzazione del Paese e un uso sempre maggiore di smartphone e tablet stanno progressivamente riducendo l’acquisto e la vendita di beni in mercati e negozi dell’usato a favore delle piattaforme digitali generaliste e verticali”.

Quella della “Second Hand Economy” non è, quindi, una moda passeggera, ma vuole imporsi come una radicale trasformazione del nostro modo di intendere produzione, consumo e quindi benessere, non solo per risparmiare, ma anche per vivere il prodotto con una concezione diversa, con un approccio etico e ambientalista. Come più volte è stato denunciato dal WWF: l’uso efficiente delle materie prime è una delle sfide cruciali del nostro tempo, dal momento che ogni anno utilizziamo risorse pari a quelle di 1,6 pianeta Terra. Troppe, a mio avviso, considerando specialmente che la domanda delle nostre economie non cessa di aumentare. Proprio per questo pensare ad un’alternativa all’economia che abbiamo vissuto fino ad oggi è doveroso e auspicabile. La difesa della natura e la riduzione dell’impatto ambientale della produzione industriale possono avere un significato positivo anche per la crescita e lo sviluppo. In natura non esistono discariche, ma i materiali vanno e vengono trasformandosi secondo il normale ciclo della vita, in un sistema circolare che si presenta e ripresenta da centinaia di anni sempre allo stesso modo. L’approccio lineare utilizzato dagli esseri umani, invece, si basa sull’utilizzo e la trasformazione delle materie prime fino all’eventuale disuso che porta, quindi, ad intaccare ogni eventuale risorsa naturale che non è infinita. Un sistema che nel lungo periodo non può durare in eterno. Trasformare i prodotti di oggi nelle risorse del futuro è l’auspicio dell’economia del futuro.

L’economia circolare fa proprio questo, ossia si pone come un modello produttivo che ambisce a una riduzione significativa dei prodotti di scarto, da riutilizzare piuttosto nel ciclo economico. È un affare non solo per il Paese, ma anche per i cittadini e l’ambiente. Che si pensi, quindi, se già non lo si sta facendo, ad un approccio diverso alle nostre spese future cercando di superare la vecchia, e non più sostenibile, logica del “prendi, produci, usa e getta”. Siamo ancora in grado di farlo, prima che sia troppo tardi.

Gianluca Cimini

]]>
Tue, 11 Apr 2017 11:09:36 +0000 http://www.gianlucacimini.it/mc/514/1/consumo-critico-e-ricerca-del-pezzo-unico-il-boom-della-circular-economy---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Inizia l’era del riciclo spaziale, il lancio di Space X è stato un successo http://www.gianlucacimini.it/mc/513/1/inizia-l-era-del-riciclo-spaziale-il-lancio-di-space-x-e-stato-un-successo

Florida, 30 marzo 2017, 23:27 ora italiana, Kennedy Space Center. Quel genio istrionico e visionario di Elon Musk non smette di far parlare di sé dando inizio in un colpo solo all’era del “riciclo spaziale”. La Space X, l’azienda spaziale privata di Musk, per la prima volta al mondo, ha, infatti, fatto decollare con successo, come se fosse un normale aeromobile, un razzo spaziale “di seconda mano”: il Falcon 9 portandolo nuovamente nello spazio. Perché nuovamente? perché quel razzo era già stato utilizzato per un volo spaziale e il risultato storico raggiunto con successo apre uno scenario nuovo per l’esplorazione spaziale nel quale, negli anni a venire, si potranno abbattere i costi dei futuri progetti grazie all’utilizzo di razzi che avevano già compiuto la loro missione spaziale iniziale. Dopo 11 mesi dalla sua ultima missione, quindi, il Falcon 9 ritorna in orbita, operativo al momento in cui vi scrivo, un satellite per Tlc della società lussemburghese Ses sta orbitando sopra l’equatore trasmettendo segnali televisivi verso l’America meridionale grazie al modulo “riciclato” di Space X. Con queste parole Elon Musk apre effettivamente l’era del riciclo spaziale: “Penso sia un giorno importante nella storia delle missioni spaziali. È possibile far volare più volte un lanciatore orbitale, che è la parte più costosa del razzo. Un risultato che costituisce, auspicabilmente, una grande rivoluzione per il volo spaziale”.

Per la precisione non tutto il Falcon 9 originale sta volando sopra di noi, ma una grande parte di esso: i motori sono rimasti gli stessi, ma ogni componente ausiliario per il quale sussisteva anche il minimo dubbio in fatto di sicurezza, assicura Musk, è stato sostituito. Il primo stadio del razzo era già stato utilizzato in una precedente missione lo scorso aprile e poi recuperato grazie al sistema di atterraggio controllato. Il primo stadio, alto 41 metri, si è sganciato dal resto del lanciatore 2 minuti e 41 secondi dopo il decollo, prima di iniziare una discesa controllata con i retro-razzi per adagiarsi dolcemente su una piattaforma galleggiante sull'Oceano Atlantico, 8 minuti e 32 secondi dopo il lancio. La possibilità di riutilizzare i propri razzi è sempre stata una priorità per SpaceX, per ridurre sensibilmente i costi di ogni missione, offrire prezzi più bassi alle aziende che vogliono portare in orbita i loro satelliti e rendere più frequenti i lanci. L’obiettivo, ora, per l’azienda privata è quello di aumentare il più possibile la velocità di riciclo e minimizzare il numero di pezzi da sostituire completamente così da riuscire ad abbattere ancora di più i costi per i futuri progetti spaziali, in programma solo per quest’anno, infatti, ci sono altri sei razzi da lanciare. E l’obiettivo è quello di arrivare un giorno a creare razzi in grado di essere utilizzati e riutilizzati il più velocemente possibile e con una manutenzione minima in grado di eliminare la sostituzione di alcun pezzo e di rendere i razzi così veloci ed efficienti da essere utilizzati e lanciati in poco meno di 24 ore. Praticamente come un aereo qualsiasi.

La maggior parte dei lanciatori spaziali (come quello di SpaceX) è formata da alcuni cilindri uniti tra loro, i diversi “stadi”: ognuno è dotato di motori e carburante per spingere il razzo e fargli vincere la forza di gravità terrestre; quando il primo stadio termina il suo compito, si stacca e si attiva il secondo stadio e così via. Nel caso del Falcon 9 due sono gli stadi utilizzati: il primo, formato da 9 motori Merlin ed in grado di produrre una spinta pari a quella di cinque Boeing 747 sommati insieme, era stato usato nel lancio dell'aprile 2016 della capsula Dragon verso la Stazione Spaziale Internazionale, in una missione di rifornimento, ed era stato recuperato dopo l'atterraggio sulla terra; nel secondo stadio troviamo, invece, un solo motore che si attiva quando ormai il razzo ha superato l’atmosfera terrestre e serve a dargli la spinta giusta per posizionarlo nell’orbita stabilita. Fino ad oggi, però, questi “stadi” una volta che finivano la loro funzione tendevano a tornare verso la Terra disintegrandosi a causa dell’atmosfera e mandando in cenere così anche motori e tecnologia che valgono alcune centinaia di milioni di dollari per ogni lancio effettuato. Di solito per il trasporto in orbita di un satellite SpaceX chiede come cifra di partenza 60 milioni di dollari, una volta che entrerà a pieno regime il sistema di riutilizzo dei razzi, il prezzo calerà, secondo le previsioni dell’azienda, di circa il 30 per cento. Complessivamente, SpaceX ha finora effettuato 14 tentativi di recupero dei propri lanciatori dopo aver rilasciato il carico utile, di essi nove andati a buon fine, compreso quello appena effettuato, non sono tutti, ma la media è alta, considerato che parliamo di un progetto sperimentale.

Space X è entrata così nella storia per essere stata la prima azienda al mondo, quando tutti dicevano che sarebbe stato impossibile, ad avere portato a termine con successo la consegna di un satellite in orbita geostazionaria con un razzo riutilizzato (il primo stadio), atterrando in verticale per la seconda volta sulla piattaforma galleggiante. L’impresa di Space X non vuole essere la conclusione di un progetto lungo e pieno di difficoltà durato 15 anni ma, piuttosto, l’inizio di una nuova era. La sfida per il futuro è quella, infatti, grazie al notevole abbattimento dei costi, di far diventare ordinari i lanci spaziali, gli atterraggi e le ripartenze dei razzi, a costi inferiori e con tempi molto ristretti rispetto a quelli che sono stati fino ad oggi gli standard della materia. Considerando che i prossimi progetti di Musk si basano su una missione privata intorno alla Luna per due suoi clienti ed un piano a lungo termine molto ambizioso e controverso per colonizzare Marte, non passerà molto prima che il visionario miliardario torni alla ribalta dei media a suon di nuovi traguardi raggiunti.

Gianluca Cimini

]]>
Sun, 9 Apr 2017 17:00:38 +0000 http://www.gianlucacimini.it/mc/513/1/inizia-l-era-del-riciclo-spaziale-il-lancio-di-space-x-e-stato-un-successo gianlucacimini2016@gmail.com (Gianluca Cimini)
Fact Checking - verificare le fonti costantemente contro la disinformazione - di Gianluca CImini http://www.gianlucacimini.it/mc/512/1/fact-checking---verificare-le-fonti-costantemente-contro-la-disinformazione---di-gianluca-cimini

Non soffermarsi mai alla superficie, ma andare sempre in fondo alle notizie controllando l’autorevolezza delle fonti per combattere la disinformazione dilagante. Le “Fake News” ossia le notizie false, sia create ad hoc a scopo di ironizzare su fatti e personaggi famosi, sia create proprio con l’obiettivo di manipolare l’informazione, sono, purtroppo, non solo un elemento distorsivo per una corretta conoscenza della realtà, ma possono anche manipolare il mercato e minacciare la stabilità sociale. Non è un caso, quindi, che proprio dopo il primo aprile, famoso per i cosiddetti “pesci” e false informazioni che si diffondono da sempre per questa giornata, sia stata scelta la data del giorno successivo, ossia il due aprile, per celebrare a livello mondiale “l’International Fact-Checking Day”, ossia la giornata internazionale contro le bufale online. L’iniziativa nacque a Buenos Aires lo scorso anno, promossa dal progetto “PolitiFact”, nato in Florida per verificare le dichiarazioni di presidenti, politici e lobbisti americani durante le passate elezioni. Obiettivo della giornata: riaffermare la necessità di fatti solidi e di argomentazioni fondate in politica, nel giornalismo e nella vita di ogni giorno.

In tempi di “fake news” e di bufale, a mio avviso, è fondamentale riuscire ad imparare a farsi uno sguardo critico su tutto quello che troviamo in rete dove ognuno è libero di esprimere il suo parere, ma allo stesso tempo anche di inventare fatti falsi; la verifica delle notizie, così come ricordavano alcuni miei amici giornalisti, deve essere sempre una delle basi fondamentali per dare attendibilità ad una notizia. E combattere la disinformazione in tutte le sue forme è qualcosa che non possiamo più rimandare. Conosco personalmente persone, anche considerate amiche, che hanno il brutto vizio, a volte, di dar risalto sui social a notizie che girano su internet con troppa facilità, dando per scontato che tutto quello che vi si trova abbia un briciolo di verità. Bene, vi assicuro che non è così. E molti approfittano di questi casi proprio per rendere virali certe notizie, anche se spesso non sempre sono veritiere, ma possono “fare comodo” per manipolare l’opinione pubblica secondo determinate direttive. Purtroppo certe notizie false si possono diffondere viralmente e velocemente, come dei virus, riuscendo a manipolare alla fine completamente la verità dei fatti.

Il fenomeno, da sempre esistito, ha avuto un boom proprio durante la scorsa campagna elettorale USA, proprio in quel periodo due delle piattaforme online di maggior diffusione, ossia Google e Facebook, sono finite nel mirino perché, a detta di alcuni osservatori, hanno agevolato la diffusione su internet di certe notizie che potrebbero aver influenzato il voto degli Americani. Ma anche blog e siti istituzionali non ne sono completamente esenti. Proprio per questo di recente sono nati diversi progetti ed iniziative volti ad arginare questo fenomeno ed a filtrare le notizie consentendo agli utenti di poter segnalare, una volta identificate, quelle inventate. Il fenomeno è tanto preoccupante quanto diffuso, secondo un sondaggio del Pew Research Center, nel quale emerge che almeno un americano su quattro, in modo consapevole oppure no, ha condiviso online notizie false, mentre quasi due terzi dichiarano che le cosiddette “bufale” creano parecchia confusione sui fatti di attualità. E non sempre è facile riconoscere le notizie false per un occhio non preparato a farlo.

C’è un solo modo per risolvere il problema: possedere il giusto occhio critico e un bagaglio di competenze necessarie per “smascherare” una news falsa a prescindere dallo scopo per cui è stata realizzata, senza dimenticare mai che il fenomeno esiste ed è largamente diffuso. Riuscire ad arginare il fenomeno dando agli utenti i modi e le conoscenze per diventare fruitori consapevoli di quello che il mondo dell’informazione può generare, riuscendo alla fine a far diventare tutti critici e capaci di distinguere la verità dalle notizie false create ad arte, è quello che si augurano tutti, da me, agli organizzatori dell’evento in tutto il mondo. La quantità enorme di fake news, infatti, fa sì che, nel mare magnum di Internet, ormai sia impossibile distinguere le bufale dalla verità: dalle petizioni online, alle catene di Sant’Antonio, passando per gli annunci trappola e le news costruite ad hoc per promuovere certi prodotti o per screditare qualcuno. Un piccolo, ma facile, consiglio che voglio dare personalmente è quello di controllare sempre da dove nasce la notizia. Mi riferisco all’indirizzo internet del sito, all’URL specifico che diffonde la news. Questo perché, mentre molti siti che creano “fake news” lo fanno in maniera chiara e con lo scopo di ironizzare o scherzare su determinati eventi, ci sono siti più “subdoli” che, invece, utilizzano URL molto simili a quelli di importanti testate giornalistiche o siti di informazioni nazionali od internazionali a cui, però, aggiungono anche solo una lettera che un occhio inesperto o distratto, di fronte alla gigantesca mole di siti in cui naviga ogni giorno o che si trova condivisa sui propri social da amici o parenti, possono sfuggire ed essere visti, quindi , come notizie autorevoli poiché scritte da fonti attendibili quando, invece, sono proprio il contrario. Bisognerebbe, poi, imparare a risalire sempre alla fonte primaria da cui nasce la notizia, verificandone se possibile anche la data di pubblicazione e la località. Un altro modo che vi consiglio per imparare a valutare ogni notizia è quello di seguire una breve ed interessante lezione sulle “fake news” direttamente sul sito della Polynter Institute, ossia la prestigiosa scuola di giornalismo situata in Florida che è promotrice dell’evento. Il consiglio finale, non meno importante, è quello di prendersi qualche secondo prima di cliccare sul tasto “condividi”  una notizia, rileggerla, valutarla attentamente, perché il diffondersi di una bufala parte, in primis , anche da noi che possiamo diventare inconsapevolmente parte di una catena che poi è difficile interrompere e che troverà, anzi, amici, colleghi e conoscenti che, fidandosi di noi, prenderanno anche loro quella notizia come veritiera facendo il nostro stesso errore. Concludo riprendendo lo slogan dell’evento: “Non farti ingannare, i fatti contano”.

Gianluca Cimini

]]>
Thu, 6 Apr 2017 18:59:27 +0000 http://www.gianlucacimini.it/mc/512/1/fact-checking---verificare-le-fonti-costantemente-contro-la-disinformazione---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Report 2016 sulla minaccia cybernetica in Italia e cosa ci aspetta per il futuro - di Gianluca Cimini http://www.gianlucacimini.it/mc/511/1/report-2016-sulla-minaccia-cybernetica-in-italia-e-cosa-ci-aspetta-per-il-futuro---di-gianluca-cimini

Si è concluso da poco questo 2016, un anno che gli esperti di cybersecurity hanno indicato come “l’annus horribilis” per l’Italia per quanto ha riguardato gli attacchi informatici, e considerando quello che è successo nei passati 12 mesi, l’anno già iniziato non preannuncia niente di nuovo, proprio per questo, forse, è il momento di analizzare il problema con dati precisi per preparare e migliorare le strategie future. Pubblici o privati, nessuno è uscito incolume da questo anno di attacchi cybernetici che hanno colpito target differenti con modalità e finalità variabili da caso a caso.

Secondo l’annuale Relazione sulla politica dell'informazione per la sicurezza, realizzata a cura del DIS (Dipartimento delle informazioni per la sicurezza) e presentata il 27 febbraio dal presidente del Consiglio Gentiloni e dal direttore generale del Dis Alessandro Pansa, è risultato, infatti, un preoccupante e costante trend di crescita in “termini di sofisticazione, pervasività e persistenza a fronte di un livello non sempre adeguato di consapevolezza in merito ai rischi e di potenziamento dei presidi di sicurezza” per quanto riguarda tutti i fenomeni di minaccia collegati al cyberspace. Questo significa che, da una parte, gli hacker stanno diventando ancora più pericolosi e, dall’altra, che questo problema non è ancora stato ben compreso da molte piattaforme che tardano ad adottare sistemi di sicurezza più efficienti per risolvere le tante falle di sistema e vulnerabilità varia che molti siti web, sia istituzionali sia privati, presentano e necessitano di revisione ed attenzione anche perché tali servizi possono occuparsi anche di servizi essenziali e strategici che potrebbero mettere a rischio anche la sicurezza nazionale in caso di un attacco hacker più “sofisticato e pervasivo”. In quest’anno sono cambiati, inoltre, sia il tipo di attacchi perpetrati maggiormente, sia i target che hanno subito tali attacchi. Se il 2015 è stato l’anno dei malware, il successivo 2016 ha visto, invece, una contrazione importante del fenomeno e la nascita di nuove tipologie di attività ostili, un dato che fa riflettere, comunque, non sull’effettiva riduzione della pericolosità della minaccia, ma sulla consistenza numerica e sull' estrema persistenza. Rimane stabile, pur registrando un aumento, il divario tra le minacce contro i soggetti pubblici, che costituiscono la maggioranza degli attacchi (ossia il 71%) e quelli diretti verso soggetti privati (che costituiscono il 27%), per quanto comunque, a mio avviso, sia non sempre facile per i soggetti privati notificare gli attacchi subiti, dal momento che molti di questi non vengono neanche avvertiti come tali. In relazione ai target privati sono però cambiati i target preferiti dagli hacker: scendono in questa particolare classifica, gli attacchi verso i settori operanti nella difesa, nelle telecomunicazioni, nell’aerospazio e nell’energia, per aumentare invece rispetto al 2015 e salire al primo posto, il settore bancario seguito dalle agenzie di stampa, le testate giornalistiche, le associazioni industriali e la new entry del settore farmaceutico. In parallelo allo spionaggio tradizionale, lo spionaggio informatico è diventato un capitolo molto importante, e chissà quanto remunerativo, negli attacchi degli hacker sia verso Istituzioni pubbliche sia verso imprese private, da una parte per ottenere informazioni utili a comprendere strategie e posizionamento del Paese sugli eventi geo-politici di interesse principale, e dall’altra con finalità di acquisizione di know-how ed informazioni industriali e commerciali. Minare la reputazione esistente del concorrente commerciale ed allo stesso tempo riuscire ad immagazzinare più informazioni possibili sui suoi obiettivi, è stato quello che hanno fatto gli hacker in questi mesi rivolgendosi non solo alle grandi aziende, ma anche ai singoli individui ritenuti di particolare interesse in ragione dell’attività professionale svolta e delle informazioni cui hanno accesso. Utilizzando tecniche di ingegneria sociale, ed espedienti sempre nuovi, gli hacker hanno così cercato di catturare informazioni sensibili come credenziali di accesso ai sistemi informatici aziendali. Sono i gruppi hacktivisti (con il 52% delle minacce cyber) la minaccia più rilevante , in termini percentuali, per il nostro paese, benché “la valenza del suo impatto sia inversamente proporzionale rispetto al livello quantitativo riferito ai gruppi di cyber-espionage, più pericolosi anche se percentualmente meno rappresentativi (19%).” La minaccia terroristica nel mondo informatico si occupa di attività quali proselitismo, reclutamento e finanziamento mentre le attività ostili in danno di infrastrutture IT sono consistite principalmente in attività di Web-defacement ossia quella pratica che consiste nel cambiare illecitamente la home page di un sito web (dal termine deturpare) all’insaputa di chi gestisce il sito. Ai gruppi islamisti è imputato il 6% degli attacchi cyber perpetrati in Italia nel corso del 2016.

La necessità di adeguare l’architettura informatica nazionale dei siti più sensibili, sia a livello pubblico sia privato, è l’obiettivo che mi auguro sia seguito, senza ulteriori perdite di tempo, durante questo anno, così da essere pronti ad affrontare le crescenti sfide che la sicurezza informatica richiede a livello nazionale ed internazionale. Stabilire e coordinare le linee d’azione per portare ad assicurare i necessari livelli di sicurezza dei sistemi e delle reti di interesse strategico, è compito sia del governo sia del Dipartimento delle informazioni per la sicurezza (DIS), il premier Gentiloni è stato chiaro a riguardo: "Sappiamo di essere in un mondo in cui si moltiplicano le cosiddette minacce asimmetriche, non c'è più tanto la minaccia tradizionale di eserciti stranieri alle porte, ma ci sono minacce di vario tipo che vengono dagli attacchi cyber e da molte altre questioni. A queste minacce non si risponde nell'illusione di potersi proteggere chiudendoci, ma si risponde accettando la sfida. Più sicurezza non vuol dire meno libertà, al contrario. Oggi avere più sicurezza è una condizione per continuare a vivere liberi, per continuare ad avere una società aperta, ispirata ai valori che abbiamo conquistato e che intendiamo difendere".

Gianluca Cimini

]]>
Mon, 3 Apr 2017 18:40:24 +0000 http://www.gianlucacimini.it/mc/511/1/report-2016-sulla-minaccia-cybernetica-in-italia-e-cosa-ci-aspetta-per-il-futuro---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Tra etica e rischi vari, è forse tempo di riscrivere le leggi delle robotica - di Gianluca Cimini http://www.gianlucacimini.it/mc/510/1/tra-etica-e-rischi-vari-e-forse-tempo-di-riscrivere-le-leggi-delle-robotica---di-gianluca-cimini

Astrofisici, inventori, imprenditori, filosofi e scienziati, si stanno interrogando e ponendo la stessa domanda da diverso tempo cercando di darsi al più presto una risposta e di porre magari le basi per una possibile regolamentazione futura sull’argomento, ossia: cosa accadrà quando l’etica umana verrà scombussolata da sistemi di intelligenza artificiale dotati di una serie di regole in contrasto con le nostre?

Tra apocalittici e integrati, le famose leggi della robotica create da Isaac Asimov a cui rispondono tutti i robot positronici (ossia dotati di un dispositivo immaginario ideato dallo stesso scrittore russo e chiamato cervello positronico, il quale può essere benissimo inteso come intelligenza artificiale) proprio ultimamente sembrano essere state violate per la prima volta nel mondo reale, ma, a dirla tutta, i robot in questione non hanno agito di propria iniziativa, ma seguendo algoritmi ed istruzioni precise e ben programmate. E così la prima legge che afferma che “Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno” e la seconda, ossia che “Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge” sono state superate. Il primo caso ha portato il robot russo “Promobot” a “fuggire spontaneamente” dal laboratorio in cui stava apprendendo gli algoritmi per il movimento automatico, ed a esplorare l’ambiente circostante in modo autonomo finché non è rimasto immobile, a batterie ormai scariche, in mezzo ad una strada paralizzando il traffico cittadino. Se sia stata una furba mossa di marketing o una dimenticanza accidentale, questo non saprei dirlo. Il caso successivo, però, fa ancora più pensare, e si tratta del primo robot pensato espressamente per danneggiare o ferire qualcuno dal momento che il braccio mobile armato di ago è stato realizzato per pungere con forza chi, tentando la sorte, avesse appoggiato il dito sull’apposito bersaglio. Il robot nasce come esperimento all’interno dell’Università di Berkeley proprio per far ragionare la gente su come affrontare i pericoli che potrebbero rappresentare i robot, ancor prima che si realizzino. “La grande preoccupazione sulle intelligenze artificiali è che possano andare fuori controllo. - afferma Alexander Reben, l’ingegnere dell'università di Berkeley esperto di interazione uomo-robot - I giganti della tecnologia affermano che siamo ben lontani da questo, ma pensiamoci prima che sia troppo tardi. Io sto provando che robot pericolosi possono esistere, dobbiamo assolutamente confrontarci sul tema. Le persone più disparate, esperti di legge, filosofia, ingegneria ed etica devono mettersi insieme per risolvere queste questioni, nessuno può farlo da solo”.

Il dibattito è acceso e l’allarme è stato lanciato sia da Stephen Hawking che da Elon Musk, che si sono detti molto preoccupati sui rischi legati all’evoluzione dell’intelligenza artificiale. E così i due, insieme a 892 ricercatori di AI o robotica e 1445 altri esperti del settore tecnologico hanno approvato un testo chiamato “Asilomar AI Principles” (Principi Asilomar per AI) composto da 23 principi-guida che dovrebbero volgere ad uno sviluppo dell’AI in un modo produttivo, etico e sicuro. Un testo iniziale e non completo il cui obiettivo ultimo è quello di “creare un’intelligenza della quale beneficiare e non un’intelligenza senza uno scopo” senza trascurare questioni fondamentali come la sicurezza, il bene comune, la responsabilità, la privacy, il controllo umano, i rischi di un’ eventuale corsa alle armi AI. In ambito militare, infatti, diverse nazioni stanno già sviluppando sistemi di armamenti robotici in grado di scegliere in maniera autonoma un obiettivo prioritario tra i diversi possibili ed abbatterlo. Simili armi smart, richiedono ancora l’autorizzazione di un operatore umano per portare a segno l’attacco, ma i rischi letali legati a questi armamenti autonomi non possono non destare preoccupazione già da ora. Dell’argomento si parlerà in maniera più approfondita a giugno durante la Conference on Uncertainty in Artificial Intelligence (UAI) cercando di mettere al bando, attraverso una petizione firmata già da oltre mille esperti del settore, eventuali “robot killer” in grado di combattere ed uccidere senza essere guidati dall’uomo.

Non è un caso che nella risoluzione del Parlamento europeo con il quale si richiede alla Commissione europea di iniziare a sviluppare norme per disciplinare l’ambito della robotica, si parli anche di mitologia e letteratura: da Frankenstein, a Pigmalione, al Golem di Praga, “gli uomini da sempre hanno fantasticato sulla possibilità di costruire macchine intelligenti, spesso androidi con caratteristiche umane” che siano funzionali agli scopi per cui sono state generate impedendo allo stesso modo che suddette macchine possano rivoltarsi contro i propri creatori. La risoluzione approvata il 13 febbraio dai deputati UE in materia di “Norme di diritto civile sulla robotica” insiste specialmente sulla creazione di uno status giuridico per i robot con la prospettiva di classificare gli automi come “persone elettroniche” responsabili delle proprie azioni. Una delle prime esperienze reali di AI, che probabilmente necessiterà a breve di regole scritte, potrebbe essere quella delle auto a guida autonoma. Sarà forse questo il campo di prova per capire effettivamente come affrontare la questione etica delle macchine pensanti: un’auto senza conducente sceglierebbe di colpire dei pedoni o deviare ed andare a sbattere danneggiando i propri passeggeri? Limitare i danni sembra la risposta più ovvia, ma a quale costo e, soprattutto, a chi andrebbe poi la colpa dell’accaduto, alla macchina o al programmatore? La questione è totalmente aperta. Le macchine, forse, arriveranno a possedere una propria etica leggendo e riordinando il mondo in modo tale che non dipenderanno più da come sono state originariamente programmate, saranno in questo caso però “libere” di evolversi autonomamente? Alla base, penso che le macchine dovrebbero essere istruite in maniera tale da non arrivare mai da sole a sciogliere questioni delicate e pericolose, il cosiddetto coding etico. “Serve un’etica dell’algoritmo e quell’etica va costruita attraverso un confronto esterno al mondo dei laboratori perché deve mettere appunto in chiaro delle soglie limite sull’utilizzo delle macchine. Dovranno essere soglie universali, che si applichino oltre la singola invenzione o scoperta”, l’affermazione è di Giovanni Boccia Artieri, sociologo e docente di internet studies all’università di Urbino. Le tre leggi della robotica stanno per essere messa a dura prova, oggi dalle auto senza conducenti, domani da un’intelligenza artificiale sempre più pervasiva. E anche per questo, dobbiamo saper agire e dare regole precise già da ora per il mondo che verrà: non cancellare le tre leggi ma implementarle con tutte le possibili implicazioni future.

Gianluca Cimini

]]>
Fri, 31 Mar 2017 19:15:46 +0000 http://www.gianlucacimini.it/mc/510/1/tra-etica-e-rischi-vari-e-forse-tempo-di-riscrivere-le-leggi-delle-robotica---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
L’evoluzione umana e l’intelligenza artificiale, tra scienza ed innovazione - di Gianluca Cimini http://www.gianlucacimini.it/mc/509/1/l-evoluzione-umana-e-l-intelligenza-artificiale-tra-scienza-ed-innovazione---di-gianluca-cimini

Dove non arriverà l’intelligenza umana potrà farlo quella artificiale, che si parli di fisica della materia o di meccanica quantistica il discorso non cambia, i nostri ricercatori all’estero sono sicuri che una rete neurale possa risolvere problemi che né gli scienziati, né i supercomputer più potenti al mondo riescono a sbrogliare. É già accaduto e sarà ancora più facile che accada in futuro. L’ultima sfida vinta dal silicio riguarda proprio i calcoli labirintici della meccanica quantistica, dove i computer, sdoganati da intuizioni e preconcetti possono davvero fare la differenza. E così su uno studio pubblicato sulla rivista scientifica “Science” scopriamo che un complesso problema di meccanica quantistica è stato risolto grazie all’intelligenza artificiale di uno dei più potenti calcolatori d’Europa, che si trova a Lugano al Centro svizzero di calcolo scientifico. Un modello di intelligenza artificiale opportunamente configurato per riuscire a gestire informazioni dettagliate sul comportamento dei singoli atomi cercando di capire dove si trovi ciascuno di essi durante l’esperimento attraverso calcoli così intricati da risultare impossibili da risolvere per una mente umana. Le reti neurali, invece, riescono a dimezzare il tempo necessario alle equazioni necessarie per risolvere i vari problemi di meccanica quantistica muovendosi con scioltezza in campi in cui la nostra mente si trova ad essere, invece, goffa e lenta. Dalla mole di dati da analizzare il primo passo per una rete neurale è quello di imparare a selezionare gli elementi utili e trascurare quelli irrilevanti. Il software deve prima di tutto, infatti, imparare a muoversi escogitando soluzioni adeguate e selezionando quelle più utili al problema. Ad oggi il rischio che l’intelligenza artificiale superi quella umana è ancora remoto, secondo Giuseppe Carleo, docente di Fisica presso il Politecnico Federale di Zurigo, che ha realizzato con successo l’esperimento appena descritto, ma il discorso potrebbe lentamente cambiare un giorno con l’avvento dei computer quantistici che saranno in grado di processare dati a velocità oggi impensabili.

Da “Science” a “Nature Physics” , dalla meccanica quantistica alla fisica della materia, ma con le stesse reti neurali standard dell’intelligenza artificiale e gli stessi successi. Perché, pur cambiando ambito, gli algoritmi di machine learning utilizzati da un’equipe di ricercatori del Perimeter Institute for Theoretical Physics per identificare le fasi della materia, spalancano un universo di possibili applicazioni. Avendo fornito al supercomputer dell’Università di Waterloo una quantità altissima di dati e di immagini provenienti da decenni di ricerca sperimentale e di simulazioni, la macchina ha imparato a distinguere tra i diversi stati della materia e a riconoscerne anche le transizioni da una fase all’altra. Magari non tutti saranno effettivamente interessati dal saper distinguere la fase ordinata di un ferro magnete dalla sua fase disordinata, ma il concetto fondamentale è che tale ricerca avrà un impatto pratico in moltissimi campi e discipline: dal concetto dell’entanglement quantistico all’analisi delle conformazioni delle proteine e del dna tanto per fare un esempio.

Sia che si tratti di interpretare masse di dati, sia che si tratti di analizzare fenomeni complessi, è l’incontro dell’Intelligenza Artificiale con le varie materie di studio scientifiche che può portare ad innovazioni che prima di oggi non sono state minimamente prese in considerazione. Questa è la mia visione del futuro, ma probabilmente non solo la mia, dal momento che i creatori di “Watson”, il sistema di Intelligenza Artificiale dell’IBM, quando parlano del loro super-cervellone a piattaforma cloud, lo descrivono come colui che porterà innovazioni importanti, che cambieranno la vita delle persone in futuro, appena la sua evoluzione gli permetterà di potenziare ancora di più le sua abilità che già oggi gli permettono di leggere ed interpretare dati complessi, interagire in modo naturale con le persone e imparare in modo più efficace. Sia che si parli di esseri umani, sia di computer, il dibattito sui temi dell’evoluzione e dell’intelligenza come empowerment delle capacità cognitive di rispondere al cambiamento e alla velocità del cambiamento stesso è sempre più acceso. E pensare che la parola “evoluzione” fu utilizzata da Darwin nel suo “Origine delle specie” solo nelle ultime edizioni. E tale evoluzione è maturata nei secoli anche grazie alla triplicazione della nostra capacità cranica fin ad un momento inatteso e straordinario che ha portato nella nostra vita degli “strumenti” realizzati per una finalità specifica, per risolvere un problema o per rispondere al cambiamento delle condizioni ambientali. Se poi ci troviamo, su una scala  temporale differente e su una velocità inversamente proporzionale alla dimensione, a fare un raffronto con l’evoluzione del silicio trasformato in transistor, non è un azzardo, a mio avviso, cominciare a considerare l’intelligenza artificiale come una tappa della nostra stessa trasformazione che ci sta portando verso un nuovo salto evolutivo. Dai primati che imparavano ad usare gli utensili elementari per procacciarsi il cibo siamo arrivati ai giovani nati dopo il duemila che usano lo smartphone con totale dimestichezza. C’è una relazione articolata tra soggetto e strumento che mostra che in realtà noi agiamo e pensiamo anche in funzione degli strumenti e delle macchine che usiamo per interfacciarci con il mondo e con i nostri simili.

Siamo di fronte, quindi, ad un progresso di miglioramento che segue un piano prestabilito di sviluppo. Le tecnologie in grado di adattarsi meglio all’ambiente sono anche quelle che riusciranno ad affermarsi nel futuro, e noi ci stiamo “evolvendo” anche così, passo dopo passo, studio dopo studio, con una nuova ed innovativa tecnologia alla volta. 

Gianluca Cimini

]]>
Mon, 27 Mar 2017 17:02:26 +0000 http://www.gianlucacimini.it/mc/509/1/l-evoluzione-umana-e-l-intelligenza-artificiale-tra-scienza-ed-innovazione---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Pubblicità online e software che tentano di bloccarla, un rapporto complicato - di Gianluca Cimini http://www.gianlucacimini.it/mc/508/1/pubblicita-online-e-software-che-tentano-di-bloccarla-un-rapporto-complicato---di-gianluca-cimini

Agli internauti non piace la pubblicità online. Punto. Sembra un dato di fatto considerando un recente rapporto di PageFair del 2016 che afferma che circa l’11% degli utenti di internet nel mondo ha usato questi software, che risultano installati su oltre 615 milioni di dispositivi diversi, tra smartphone, tablet e computer fissi (e con un aumento del 30% rispetto all’anno prima).

Ma come funziona e a cosa serve un software, come Adblock per esempio, amato dai navigatori, ma odiato dai siti web, che limita la pubblicità online durante la navigazione? Il software in questione nasce come “estensione” per i maggiori browser (Firefox, Chrome, Safari, Internet Explorer) ed una volta installato blocca qualsiasi tipo di elemento pubblicitario, come ad esempio pop-up, banner, gli annunci dei video di YouTube, la pubblicità su Google e molto altro, mettendo allo stesso tempo anche l’utente al riparo da spam, phising e malware che spesso si celano proprio dietro a questi banner. La maggior parte dei software in questione utilizza delle liste di riconoscimento in grado di intercettare gli indirizzi internet che contengono elementi pubblicitari e di bloccare la visualizzazione di questi ultimi nel momento in cui vengono caricati sul browser tramite javascript. Esistono liste predefinite all’interno dei software così come è possibile all’utente creare proprie regole personali per creare la propria “whitelist,” ossia un elenco di siti internet considerati sicuri e che non verranno bloccati in automatico. L’utente si ritrova così a usufruire di pagine web caricate più velocemente, grazie all’esclusione degli elementi pubblicitari dalle pagine, un consumo di banda più limitato e, di conseguenza, una maggiore durata della batteria del dispositivo (nel caso di smartphone o tablet dal momento che ormai esistono “applicazioni” apposite sia per Android, sia per iOs, che svolgono il lavoro di bloccare la pubblicità online). Vivere un’esperienza browsing più naturale possibile, togliendo di mezzo banner e fastidiosi pop-up, sempre secondo un report di PageFair, porta, però, gli investitori online alla perdita di decine di miliardi di dollari ogni anno per il mancato ingresso dei ricavi sugli annunci. D’altro canto il sito web, che guadagna proprio grazie alle pubblicità visualizzate sulle sue pagine dai vari internauti, perde la sua fonte di sostentamento primaria. E così la lotta tra pubblicità e software che la limitano è più aperta che mai.

Facebook e Adblock Plus, per esempio, si sono scontrati apertamente sull’argomento in una particolare botta e risposta dove l’uno cercava di sopraffare l’operato dell’altro a proprio vantaggio: per tutelare i grandi incassi generati dalle inserzioni il social network di Mark Zuckerberg ha reso i contenuti di Facebook pubblicati dagli utenti indistinguibili dai contenuti pubblicitari così da diventare più difficili da filtrare per gli “occhi” informatici degli adblocker. 48 ore dopo le difese di Facebook sono state nuovamente superate dall’estensione per browser “Adblock Plus” e la battaglia tra i due è ancora in corso. Nell’ultimo anno Google ha rivelato, nel suo rapporto periodico Bad Ads, di aver rimosso 1,7 miliardi di annunci pubblicitari legati specialmente alla promozione di prodotti illegali, al gioco d’azzardo e alle “tabloid cloaking”, ossia un nuovo tipo di annuncio ingannevole che si spaccia per notizia. Gli annunci hanno un ruolo vitale nella sostenibilità economica dell’open web e sono una fonte immensa di guadagno per piattaforme come Google o Facebook, ma spesso possono nascondere, come abbiamo visto, insidie pericolose, come nel caso degli annunci “trick to click” che compaiono come avvertimenti del sistema operativo del dispositivo, ma poi scaricano software malevolo. Ed in questi casi gli adblocker possono arginare in parte il problema, non è un caso, infatti, che l’utilizzo di questi software su pc desktop abbia raggiunto i 236 milioni di terminali, con una particolare crescita in particolare sui dispositivi mobili, 380 milioni di terminali, dove la pubblicità risulta ancora più fastidiosa. Il fenomeno ha ormai superato le nicchie degli appassionati di tecnologia ed è diventato globale: Google ha calcolato che ormai solo il 54% di tutti gli annunci sul web viene visualizzato, mentre su YouTube la percentuale sale al 91%.

Si blocca la pubblicità per ragioni diverse: perché abbiamo paura di minacce informatiche e virus, perché interrompe la nostra esperienza di navigazione, perché ci regala maggiore velocità nella navigazione. Mentre certe pubblicità si possono più facilmente tollerare, come nel caso di banner statici che magari collegandosi ai nostri cookie ci informano su offerte che ci interessano, quello che non sopporto sono proprio quei messaggi che non permettono di essere saltati o che partono in automatico durante la navigazione. Alcuni siti hanno quindi introdotto dei cosiddetti “adblock walls” che riescono a riconoscere se stiamo navigando con un blocco per gli annunci pubblicitari attivo ed in questi casi ci pregano di disabilitarlo prima di proseguire nella navigazione web. Nonostante la percentuale di utilizzazione dei vari software adblocker in aumento, il web advertising ha comunque archiviato il 2016 con una crescita dell’8,2% (così come riporta l’ultimo report Nielsen sul mercato degli investimenti pubblicitari) con la “ricerca online” e i “social media” a spingere la crescita della componente Internet nella pubblicità. E così si è arrivati al punto che le grandi aziende di informatica come Google, Microsoft, Amazon e simili, che operano tutte nel settore pubblicità, stiano facendo accordi economici proprio con AdBlock Plus, sfruttando la loro posizione in una “white list” capace di aggirare l’estensione e impedire di bloccare la pubblicità. Sembra quasi un paradosso la notizia, invece potrebbe aprire un compromesso adeguato tra utenti ed inserzionisti dal momento che bloccherà solo gli annunci ritenuti fastidiosi dagli utenti, i quali potranno comunque decidere di bloccare anche le cosiddette “pubblicità accettabili”. Mi viene lecito pensare quanto può “costare” ad un editore entrare in una determinata “white list” perché probabilmente proprio di questo si tratta, un accordo economico tra pubblicitari e software che hanno fatto la loro fortuna bloccando quello che adesso permettono, ma non a tutti. Mi preoccupa il fatto che un software come Adblock Plus diventi di fatto un gateway attraverso cui transiterà buona parte della pubblicità sul web e che questa venga filtrata secondo le sue linee guida. I dati analizzati fin qui sono sicuramente il chiaro esempio che esiste un problema importante tra navigatori ed inserzionisti; l’augurio per il bene di entrambi è che questa possa diventare un’occasione in più per mettere al centro il problema e magari ripensare in maniera diversa il marketing online attraverso forme pubblicitarie che siano meno invadenti possibile, ma rimangano funzionali alle aziende. L’advertising web si è evoluto nel tempo, dovrà continuare a farlo per rimanere al passo con i tempi. 

Gianluca Cimini

]]>
Fri, 24 Mar 2017 18:39:09 +0000 http://www.gianlucacimini.it/mc/508/1/pubblicita-online-e-software-che-tentano-di-bloccarla-un-rapporto-complicato---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Il lato oscuro dei droni: azioni militari, infiltrazioni e pericoli di hackeraggio - di Gianluca Cimini http://www.gianlucacimini.it/mc/507/1/il-lato-oscuro-dei-droni-azioni-militari-infiltrazioni-e-pericoli-di-hackeraggio---di-gianluca-cimini

Qualche giorno fa vedevo un vecchio film dove un piccolo drone veniva lanciato, armato di telecamera, all’inseguimento di un ricercato per le vie della città, si muoveva veloce senza ostacoli e riusciva a trovar il fuggitivo attraverso l’abbinamento di un software di riconoscimento facciale. Facile, fin troppo. Quello che, però, era soltanto un intermezzo di azione in un film di qualche anno fa su tecnologia e spionaggio è oggi realmente possibile grazie ai grandi passi che l’evoluzione dei droni sta compiendo, e non è neanche troppo difficile dotarsi di un dispositivo simile, basta scendere praticamente sotto il centro commerciale vicino casa e andare nel reparto informatica, proprio tra i computer e i videogame per ragazzi. Come ho già scritto in un precedente articolo le possibilità di utilizzo dei droni crescono in maniera esponenziale alla loro diffusione, sia a scopo ricreativo sia commerciale. Ma cosa succede se questi mezzi vengono presi di mira da hacker senza scrupoli o da persone che perseguono finalità criminali?

Secondo un’indagine effettuata nel 2015 dall’Enav, la società nazionale per l’assistenza al volo che si occupa del controllo del traffico aereo, in Italia sono stati venduti oltre 100 mila droni, ma con un tasso di vendita stimato di circa 300 mila unità il calcolo è presto fatto: nel 2020 saranno circa un milione il numero di droni in Italia. E la maggior parte di questi potrebbero essere a rischio di hackeraggio. Il “drone jacking” è il nome che si dà a questa nuova forma di sabotaggio informatico che permette agli hacker di prendere il controllo in remoto di un qualsiasi drone. I droni commerciali, infatti, vengono controllati in maniera remota attraverso uno smartphone o un controller apposito, che di solito si connette via bluetooth, via wifi o rete cellulare al velivolo tecnologico. Come tutti gli oggetti “connessi”, quindi, anche i droni sono soggetti che presentano particolari punti deboli dal momento che, per funzionare, necessitano di un invio di dati elettronici attraverso l’ambiente esterno e lo spettro elettromagnetico. Le informazioni che viaggiano nello spazio virtuale e che connettono controller e drone sono, quindi, a rischio di malintenzionati se non opportunamente protette, proprio per questo la questione della cyber security, così come in altri ambiti di nuovo utilizzo come quello dell’IoT, ossia dell’Internet delle cose, deve essere un prerequisito fondamentale per creare un valido strumento di dissuasione e difesa verso possibili attacchi informatici. A differenza di malware e virus, il drone jacking è potenzialmente più pericoloso. Tale attacco può mettere a repentaglio la privacy (entrando nella vita privata delle persone) e creare problemi, purtroppo, anche maggiori, dal momento che un hacker potrebbe non solo sottrarre le immagini e le informazioni raccolte dal drone, ma addirittura prendere direttamente il controllo del mezzo e da quel momento utilizzarlo per ogni possibile attività illecita, dal farlo precipitare ad utilizzarlo per scopi di natura terroristica.

Basandosi su dati reali e accertamenti ben precisi, l’allarme, infatti, parte dall’intelligence francese, scopriamo che la prossima minaccia terroristica dell’Isis, stia mettendo in conto l’uso di velivoli a controllo remoto, costruiti a basso costo, molto simili a quelli già in commercio, ma armati con ordigni capaci di uccidere. Niente di strano sul fattore offensivo, dal momento che, da anni, le maggiori potenze mondiali utilizzano droni a controllo remoto per azioni di guerra o spionaggio in territori ostili. La novità, dettata anche dall’espansione di questo nuovo mercato tecnologico, è che non si parla di centinaia di migliaia di euro per un drone militare specifico , ma di droni costruiti artigianalmente (con fusoliere di compensato ed ali di polistirolo) o commerciali a basso costo riadattati per scopi illeciti. Fonti curde nei mesi passati hanno confermato l’utilizzo da parte dei terroristi islamici per il controllo della città di Mosul di droni opportunamente modificati per azioni di bombardamento, di risposta le forze armate irachene hanno risposto con altrettanti droni da ricognizione. Ormai la guerra sembra combattersi anche così e la cosiddetta “guerra dei droni” apre, tristemente, scenari allarmanti anche nel campo della sicurezza dei centri urbani, anche europei, con un possibile utilizzo a “sciame”, ossia in gran numero, dei droni modificati. La minaccia è presa sul serio da autorità ed eserciti: il Pentagono ha stanziato circa 20 milioni di dollari per la ricerca, l’esercito iracheno si è munito di speciali fucili capaci di sparare onde radio in grado di interrompere i collegamenti del drone rendendolo inutilizzabile (i cosiddetti jammer), possibili interventi con elicotteri in Europa, così come soluzioni più “naturali” da parte dell’esercito francese che, come contromisura ai droni, addestra aquile per ghermire il modello di velivolo a controllo remoto.

Ritornando all’hacking, invece, secondo un report sulla sicurezza redatto dall’azienda di sicurezza informatica McAfee, i primi toolkit che consentiranno agli hacker di prendere il controllo dei droni attraverso software malevoli cominceranno a presentarsi già nel 2017 attraverso il dark web. Nella maggior parte dei casi per correggere le vulnerabilità software basterebbe un aggiornamento, ma fino ad oggi ben poco è stato fatto per quanto riguarda la sicurezza informatica di questi oggetti. A causa dello sviluppo tecnologico, infatti, lo scenario è in rapido mutamento e bisogna essere pronti a tutto. Quello tra i droni e i temi legati alla sicurezza è un conflitto ormai noto. E non solo in merito alle normative sugli oggetti in volo e la privacy. Il problema principale per i produttori è che ancora non esistono regole precise da seguire nella fase di progettazione. In futuro potranno, e dovranno, essere usate regole di crittografia del collegamento di controllo per evitare il dirottamento e misure per prevenire la manomissione via GPS. Gli esperti del settore della “cyber security” intendono per il futuro muoversi dal concetto di “cyber defence” a quello di “cyber resilience” attraverso l’utilizzo di sistemi che siano infatti “resilienti”, ovvero in grado di continuare ad operare in sicurezza anche qualora siano vittime di un attacco o comunque, di ‘autodistruggersi’ nei casi in cui ne sia compromesso il legittimo controllo. Proprio perché il fenomeno dei velivoli a pilotaggio remoto (APR) è un fenomeno dinamico ed in rapida evoluzione è necessario, a mio avviso ,che l’impegno da parte delle Istituzioni e dei produttori di droni sia altissimo in maniera tale da convogliare importanti risorse economiche proprio verso il settore che in questo campo è stato più trascurato, ossia quello della sicurezza cibernetica prima che i droni diventino la nuova frontiera dell’hacking mondiale.

Gianluca Cimini

]]>
Mon, 13 Mar 2017 17:58:49 +0000 http://www.gianlucacimini.it/mc/507/1/il-lato-oscuro-dei-droni-azioni-militari-infiltrazioni-e-pericoli-di-hackeraggio---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Commercio, trasporti e scopi umanitari: il lato "buono" dei droni - di Gianluca Cimini http://www.gianlucacimini.it/mc/506/1/commercio-trasporti-e-scopi-umanitari-il-lato-buono-dei-droni---di-gianluca-cimini

Utilizzati ormai in tutti gli scenari mondiali i droni sono usciti dall’ambiente militare in cui sono nati e si sono evoluti, per diventare sia giocattoli hi-tech per bambini, sia mezzi a dir poco fantascientifici dai mille scopi commerciali e civili.

Nati negli anni ’30 negli Stati Uniti come target per le esercitazioni militari, i velivoli a controllo remoto, caratterizzati dall’assenza del pilota umano a bordo, hanno cambiato nel tempo funzioni e caratteristiche. Il termine “drone” poi sembra derivare da una parte dalle caratteristiche che riguardano il rumore che il velivolo produce (in inglese antico il termine significava infatti “rimbombo”), dall’altra dalla metafora del fuco, il maschio dell’ape, e dalla sua tipica passività ricollegata alle specifiche di utilizzo del mezzo usato come bersaglio volante per le esercitazioni dell’aeronautica. Il tempo, però, ha voluto che tale passività dei droni subisse un riscatto vero e proprio, tali oggetti sono passati, infatti, prepotentemente dal ruolo di bersagli a veri e propri protagonisti dell’aviazione mondiale.

A fine dicembre, dopo tre anni di test in Europa, Amazon ha finalmente festeggiato la prima consegna di un pacco tramite un drone in Gran Bretagna. Il drone interessato, con guida da remoto via GPS, ha trasportato un pacco per alcuni chilometri depositandolo, infine, su un quadrato di 40 centimetri per lato con impressa una “A” che funge da “bersaglio” per l’APR (aeromobile a pilotaggio remoto) nel tempo record di 13 minuti.

Il problema futuro sarà capire, per il colosso dell’e-commerce, come abbracciare le norme che regolano il traffico aereo anche negli altri paesi che saranno coinvolti nei test, negli Stati Uniti, infatti, la Federal Aviation ha imposto regole stringenti sull’utilizzo dei droni commerciali che ad oggi ne vietano l’utilizzo per trasportare pacchi da remoto. Quegli stessi pacchi che, secondo un brevetto registrato da poco, in futuro potrebbero essere direttamente “paracadutati” dal drone per velocizzare il trasporto ed ottimizzare l’energia necessaria al velivolo per un eventuale atterraggio. Ma il sogno di Amazon di diventare leader nel mercato delle spedizioni non finisce così ed un altro brevetto, ancora più fantascientifico, parla di un vero e proprio centro di stoccaggio merci situato su un dirigibile che nei piani della società di e-commerce dovrà rifornire i droni di oggetti da consegnare con la capacità di spostarsi a suo piacimento nei punti strategici del globo seguendo i picchi delle richieste del mercato: uno “Zeppellin commerciale” era qualcosa a cui davvero non avevo mai pensato prima. Insomma Amazon pensa in grande riguardo a come migliorare il proprio servizio, ma non è l'unica azienda che nei droni vede una parte del business del futuro.

Da giugno 2017 Dubai diventerà la prima città al mondo con attivo un servizio di trasporto aereo individuale, il drone cinese EHang 184, infatti, non si occuperà dello spostamento di pacchi ma di persone: il velivolo autopilotato, in fibra di carbonio ed a alimentazione elettrica, aprirà così un nuovo settore commerciale con la possibilità di trasportare, nella sua prima versione, una persona dal peso massimo di 117 chili con valigetta annessa, con un’autonomia di circa mezz’ora ed un massimo di 50 chilometri. Al passeggero basterà salire a bordo del quadrirotore, allacciare le cinture e premere la destinazione sul display di bordo per iniziare a solcare i cieli ed evitare code automobilistiche e possibili congestioni stradali.

La flessibilità d’utilizzo offerta dai droni apre, comunque, tantissimi scenari di utilizzo. In Cina, per esempio, una compagnia di manutenzione della rete elettrica li utilizza, solo per fare un ulteriore esempio, per operare sulle linee ad alta tensione dove l’intervento umano risulterebbe più pericoloso e meno conveniente in termini di tempistiche, in questo caso dei speciali droni attrezzati con un lanciafiamme si occupano di pulire i cavi elettrici da oggetti di plastica come sacchetti ed altri tipi di spazzatura che ci si depositano. In Giappone più di 2.500 droni ad ala rotante si occupano invece di innaffiare le risaie, l’utilizzo agricolo di questa tecnologia è una delle applicazioni emergenti più in voga, sperimentazioni simili sono in corso anche in Italia per combattere i parassiti del mais, mentre una non violenta “Tomato Air Force” ad opera della Coldiretti Lombardia pattuglia le coltivazioni di pomodoro fra Cremona, Mantova e Brescia.

E così droni in aria, sistemi ottici a terra e sensori sui campi, attraverso una gestione integrata delle diverse tecnologie, portano l’agricoltura “di precisione” (anche detta agri-tech) a potenziare questo importante settore dell’economia italiana. I droni del futuro saranno ancora più performanti, piccoli ed affidabili ed alcuni di loro, realizzati per scopi particolari, potranno essere anche usa e getta, senza motore e biodegradabili. La realizzazione di questi particolari droni è legata al progetto “Icarus” ed è realizzato da la Darpa, l’agenzia del governo statunitense che lavora sui più evoluti progetti di difesa, con lo scopo umanitario di recapitare medicine in zone remote o isolate a causa di conflitti, calamità naturali o altre ragioni. Un’idea simile era già stata realizzata in ottobre dalla startup Zipline per la consegna di alcune sacche di sangue in Ruanda.

Nella mia ricerca sull’evoluzione dei droni, sempre a fini umanitari, mi sono imbattuto anche nel progetto “Sherpa” (realizzato dal DEI dell’Università di Bologna ed un gruppo di giovani ricercatori europei) un sistema di soccorso che combina l’azione dell’uomo a quella  di droni, robot ed aeromodelli per raggiungere luoghi colpiti dalla slavine in pochi minuti e localizzare i dispersi attraverso uno screening della zona colpita realizzato con foto delle aree interessate realizzate anche con telecamere ad infrarossi e la registrazione degli impulsi dei segnalatori che scalatori e sciatori esperti portano con sé. Ricordando che i primi droni autonomi quando fecero il loro esordio in campo militare presero il nome di “angeli della morte” è lecito immaginarsi che le cose stiano cambiando e che una tecnologia simile stia, fortunatamente, maturando in molte altre direzioni. 

Gianluca Cimini

]]>
Thu, 9 Mar 2017 20:55:27 +0000 http://www.gianlucacimini.it/mc/506/1/commercio-trasporti-e-scopi-umanitari-il-lato-buono-dei-droni---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Iniziative e consigli per vivere una rete migliore, arriva il Safer Internet Day - di Gianluca Cimini http://www.gianlucacimini.it/mc/505/1/iniziative-e-consigli-per-vivere-una-rete-migliore-arriva-il-safer-internet-day---di-gianluca-cimini

Nato come evento annuale ed organizzato da INSAFE e INHOPE con il supporto della Commissione Europea, il Safer Internet day (che si è svolto il 7 febbraio in oltre 100 paesi con il motto “Be the change; unite for a better internet”) è una giornata durante la quale ci si impegna a promuovere un uso più sicuro del web e delle nuove tecnologie. Ideato principalmente per bambini e giovani di tutto il mondo con l’obiettivo di metterli in guardia dalle minacce della rete e consegnare loro strumenti idonei alla difesa dai pericoli del web, non sono mancati in questa occasione consigli validi anche per genitori ed adulti affinché in loro si crei una vera e propria cultura della Rete.

“Fare del web un luogo migliore” è stato, quindi, il fine di questa giornata particolare nella quale i ragazzi hanno potuto scoprire non solo un uso più consapevole della rete , ma quanto sia importante essere responsabili e partecipare attivamente a rendere il web un luogo più positivo, più libero, più sicuro. Nella stessa giornata si è tenuta, inoltre, la Prima Giornata nazionale contro il bullismo e il cyberbullismo a scuola dal titolo "Un nodo blu - le scuole unite contro il bullismo". Il crescente fenomeno del cyberbullismo richiede, infatti, sempre più una maggiore consapevolezza sul corretto uso dei nuovi media digitali, in modo particolare se parliamo dei social network che così profondamente sono entrati nella vita di tutti noi, in special modo dei giovani e giovanissimi. Per contrastare un fenomeno di grande gravità come questo bisogna, a mio avviso, saper prevenire grazie ad uno sforzo congiunto messo in atto da insegnanti, familiari e mass media insieme. Insegnando ai giovani a non coltivare la cultura dell’odio trasformando quello che è un mezzo fondamentale d’informazione e socializzazione in uno strumento di attacco personale volto, purtroppo, contro i più deboli, spesso in giovanissima età, che si trovano emarginati e sotto accusa senza poter agire in loro difesa. Proprio perché certe azioni vengono vissute come “virtuali” senza attribuzioni di danni nel mondo “reale” , a volte i giovani non riescono a capire l’impatto delle proprie azioni in rete. C’è, purtroppo, l’incapacità di capire l’impatto che la comunicazione ha sull’altro. L’unica strada in questo caso, come consiglia anche il Garante dei minori, è quella della formazione e della sensibilizzazione, ed è proprio in giornate come questa che si può tornare a discutere in maniera più approfondita dei pericoli del mondo virtuale. E , purtroppo, da recenti ricerche dell’Università la Sapienza scopriamo oggi che l’82% dei ragazzi intervistati non considera grave insultare, ridicolizzare o rivolgere frasi aggressive sui social considerando che l’atto aggressivo verbale può essere considerato non grave o irrilevante poiché non dà luogo a violenza fisica diretta. Niente di più sbagliato.

Durante questa giornata di iniziative varie non si parla solo di cyberbullismo (fenomeno in gran parte sommerso, ma che sta giungendo all’attenzione dei media anche grazie alla nuova proposta del governo per contrastarlo che proprio in questi giorni è in via di discussione e approvazione alla Camera), ma anche di altri fenomeni sconosciuti ai più come il “grooming” (una subdola forma di adescamento online attraverso i social network), violazione delle norme sulla privacy, violazioni del diritto all’immagine, linguaggi aggressivi e tanti altri. Mondi esistenti, ma sconosciuti a genitori ed adulti che magari ne vengono a conoscenza solo quando ormai è troppo tardi.

Ci troviamo a diventare sempre più connessi, sempre più social, ma siamo a volte ignari delle nostre conseguenze ed azioni. I nostri dati vengono registrati mentre navighiamo, fingiamo di essere preoccupati, ma ormai abbiamo interiorizzato ed accettato l’idea che sia il giusto compromesso per poter accedere a servizi che ci interessano, quando spesso invece interessa più all’azienda conoscere i nostri movimenti, i nostri gusti, i nostri contatti. Fondamentale è anche, a mio avviso, la collaborazione dei vari social network con associazioni, forze dell’ordine, ministeri e garanti di infanzia e privacy per la tutela dei minori.Grazie anche agli altri argomenti affrontati durante questa importante giornata è stato messo in evidenza che, senza funzioni efficienti per la segnalazione di contenuti inappropriati o speciali task force che si occupino proprio dell’aumento dell’odio su internet o della propaganda di notizie palesemente false, la libertà di internet rischia di diventare anarchia. Un altro fattore importante quando si naviga, sempre più importante a mio avviso, come abbiamo scoperto in periodo di elezioni, perché può modificare idee ed opinioni, è  capire quanto le persone riescono a dare valore di verità o falsità alle notizie lette su internet, perché l’effetto” bufala” è dietro l’angolo e spesso rimbalza senza difficoltà da social a social, da profilo a profilo, portando così alla diffusione spesso incontrollata di informazioni erronee, incomplete o addirittura completamente false, portando così l’opinione pubblica meno attenta a prendere per vero quello scritto magari come scherzo senza immaginare i risvolti di un gesto così grave. Non basta, quindi, ad una notizia per essere attendibile che sia tra i primi risultati di ricerca dell’indice di Google, né bisogna prenderla come vera solo perché condivisa da persone o personaggi di cui ci fidiamo. Controllare sempre le fonti delle notizie così come cercare su internet lo stesso argomento trattato da siti differenti è fondamentale per farsi un giudizio il più possibile neutrale sull’accaduto, un discorso che vale anche per la carta stampata da sempre, ma che risulta ancora più articolato e difficile ora che i social network riescono a muovere opinioni e news a velocità prima impossibili grazie alla stampa tradizionale. E gli stessi adulti che dovrebbero esercitare un ruolo di guida in un contesto complesso e in continua evoluzione, come quello del mondo e delle tecnologie digitali, invece, spesso, hanno le stesse conoscenze dei ragazzi e gli stessi livelli di consapevolezza delle conseguenze dei loro comportamenti in rete.

Navigare in modo sicuro sul web non è un gioco da ragazzi, ma con le dovute accortezze è alla portata di tutti: c’è da imparare a gestire la password per ognuno dei tanti account, capire quando e se pubblicare un contenuto sui social network senza dimenticare di fare attenzione a potenziali attacchi hacker che possono giungere in ogni momento. Password efficaci, così come ci ricorda anche Google, sono il primo strumento di difesa contro i crimini informatici, è fondamentale, quindi, usare password diverse per ogni account, possibilmente lunghe e che utilizzino lettere, numeri e simboli. Esistono poi strumenti tecnologici per sentirsi più al sicuro come tecnologie anti-spam o avvisi che ci suggeriscono di non visitare alcuni siti poiché potrebbero contenere malware o truffe che usano il phising. Ognuno, dai grandi provider ai singoli utenti, deve fare la sua parte per rendere, insieme, internet un posto migliore.

Gianluca Cimini

]]>
Mon, 6 Mar 2017 20:37:09 +0000 http://www.gianlucacimini.it/mc/505/1/iniziative-e-consigli-per-vivere-una-rete-migliore-arriva-il-safer-internet-day---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Fuori dalla sua bozza teorica, il 2017 sarà l’anno del computer quantistico - di Gianluca Cimini http://www.gianlucacimini.it/mc/504/1/fuori-dalla-sua-bozza-teorica-il-2017-sara-l-anno-del-computer-quantistico---di-gianluca-cimini

Ne abbiamo sentito parlare per mesi e, finalmente, le più grandi aziende della tecnologia mondiale stanno spingendo forte in questo settore che, a detta degli esperti, potrà migliorare sensibilmente la vita di tutti i giorni: il computer quantistico durante il 2017 uscirà dalla sua bozza teorica e si trasformerà in qualcosa di tangibile e realmente funzionante. Molto più potente di qualsiasi computer mai concepito e dalla portata rivoluzionaria, la macchina inseguita da decenni ha finalmente un progetto preciso che porterà alla realizzazione entro due anni del primo prototipo funzionante: potente nelle prestazioni così come grande nelle dimensioni (si parla della grandezza di un campo di calcio) e nei costi (pari a circa 100 milioni di euro). Descritto sulla rivista Science Advances, il progetto si deve al gruppo coordinato da Winfried Hensinger, dell'università britannica del Sussex. Molto dipenderà dal numero di partner interessati al progetto e agli investimenti che si effettueranno per la realizzazione, ma, una volta finito il progetto, verrà alla luce un computer in grado di risolvere in poco tempo problemi che per un normale computer richiederebbero miliardi di anni e, con una tale potenza di calcolo, il mondo dell’industria, del commercio e della ricerca scientifica in primis potrebbe trovarsi di fronte ad una nuova rivoluzione.

Nell’ambito della ricerca pura si discute ormai da anni di calcolo quantistico con l’obiettivo di passare ad una sua applicazione concreta, non solo i grandi colossi dell’informatica come Google e Microsoft , ma anche numerosi laboratori di università e start-up stanno cercando di portare alla realtà un progetto così avveniristico. L’idea innovativa alla base è quella di sfruttare i tipici fenomeni della meccanica quantistica per creare una macchina in grado di elaborare informazioni ad una velocità impensabile per le moderne tecnologie. Fino ad oggi i nostri computer hanno codificato le informazioni tramite un’unità chiamata “bit” capace di assumere due valori (0 e 1) che, tramite lunghissime sequenze, vanno a formare i comandi ed i software che utilizziamo ogni giorno per i nostri scopi più vari. In un computer quantistico tali informazioni sono invece codificate tramite una versione quantica  dei bit ossia i “qubit” che possono assumere tre valori (0, 1 od entrambi). Grazie a due effetti tipici della meccanica quantistica, ossia la “sovrapposizione degli stati”, un qubit può trovarsi in una condizione in cui i due stati diversi si trovano sovrapposti, e “l’entanglement” in cui due particelle microscopiche diverse possono condividere lo stesso stato quantico pur trovandosi ad una grande distanza l’una dall’altra, si potrebbe avere un incremento esponenziale della velocità di calcolo. A differenza però del bit, rappresentato da un elemento o un componente capace di alternare due stati (come il voltaggio in un circuito o una sorgente luminosa) per il qubit è necessario ricorrere agli elettroni, ai fotoni o in più in generale lavorare a livello subatomico, con le comprensibili difficoltà che ciò comporta, con all'interno dispositivi che mantengono il tutto a temperature vicine allo zero assoluto poiché la vivacità della materia si abbassa notevolmente col freddo.

Dagli anni ’60 la cosiddetta “legge di Moore”, uno dei pilastri per mezzo secolo del progresso informatico, ha predetto che ogni 18/24 mesi i processori dimezzano il proprio prezzo e proprie dimensioni pur raddoppiando la potenza di calcolo, e così è stato fino ad oggi grazie agli enormi investimenti nel settore dei semiconduttori. Ora siamo, però, ad un punto di svolta, ad un rallentamento ed a una ottimizzazione della tecnologia esistente, che potrebbe essere, tuttavia, l’anticamera del prossimo salto generazionale che si aprirà con i computer che si affideranno alla “supremazia del quanto” (“Quantum supremacy” è, infatti, la definizione data da Google in uno studio che descrive i piani futuri per la creazione di un computer quantistico da 50 qubit.) Tale supremazia non deriverà tanto dal superamento dei limiti della potenza di calcolo dei computer tradizionali, quanto dalla possibilità di eseguire operazioni e risolvere problemi che sono concettualmente preclusi alle macchine basate sui bit. E così le nuove applicazioni computazionali potranno velocizzare lo sviluppo delle tecniche di machine learning e dell’intelligenza artificiale, non solo grazie a potenze di calcolo maggiori, mas grazie alla possibilità di affrontare problemi di enorme complessità da prospettive completamente nuove e con maggior efficienza grazie alla ridefinizione di procedure e algoritmi. Nel frattempo le più grandi aziende del mondo stanno portando avanti la ricerca sui computer quantistici nelle loro sedi, ne è un esempio l’IBM che ha reso il suo computer quantistico una risorsa cloud accessibile a tutti, tramite la sua IBM Cloud Platform a cui ci si può iscrivere attraverso un apposito form online se siete curiosi di provare questa nuova tecnologia. L’utilizzo di piattaforme cloud renderebbe, inoltre, irrilevante l’oggetto che usiamo per fare quello di cui abbiamo bisogno, che sia un tablet, una console o un frigorifero, aprendo nuove modalità di utilizzo grazie alle, ormai economiche, risorse cloud disponibili oggi. Dal punto di vista pratico i computer quantistici aprono scenari che fino a oggi sono rimasti confinati alla fantascienza, d’altro canto, però, computer così potenti potrebbero vanificare in pochi attimi l’efficacia dei più potenti algoritmi di cifratura in uso oggi rendendo superflui tali strumenti fondamentali che utilizziamo ogni giorno (dalla cifratura dei numeri di carta di credito che transitano sulle reti ai codici militari), grazie alla potenziale risoluzione in maniera rapidissima dei vari e complicati problemi matematici alla base della crittografia contemporanea. Questo mi porta ad immaginare un computer che, dopo avere effettuato in pochissimo tempo i suoi calcoli, abbia ancora tempo e spazio in memoria sufficienti per analizzare i suoi stati interni di continuo: in pratica, un computer in grado di simulare la coscienza e non so se questo mi affascina o mi fa paura.

Gianluca Cimini

]]>
Wed, 1 Mar 2017 19:18:42 +0000 http://www.gianlucacimini.it/mc/504/1/fuori-dalla-sua-bozza-teorica-il-2017-sara-l-anno-del-computer-quantistico---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
CIOC: un cyber-comando militare per difendere l’Italia dagli hacker - di Gianluca Cimini http://www.gianlucacimini.it/mc/503/1/cioc-un-cyber-comando-militare-per-difendere-l-italia-dagli-hacker---di-gianluca-cimini

Nel Libro Bianco per la Sicurezza Internazionale, il Ministero della Difesa aveva definito, già nel 2015, la necessità di sviluppare specifiche capacità cyber difensive anche in ambito militare per il nostro paese. Da quest’anno, confermato ufficialmente alla Stampa durante la conferenza italiana sulla cyber sicurezza “ITASEC17”, diventerà operativo il “Comando Interforze per le Operazioni Cibernetiche” (abbreviato in CIOC) che porterà così anche le forze armate italiane ad avere un comando specifico per attività cyber, sul modello di quello statunitense, che si occuperà sia di sostenere e proteggere le operazioni militari sviluppando le capacità di pianificazione e conduzione di Computer Network Operations (CNO), sia di coordinare le forze armate e le altre strutture nazionali che si occupano della protezione informatica del Paese, come il Centro anticrimine informatico per la protezione delle infrastrutture critiche (CNAIPIC) della Polizia Postale e gli enti che si occupano di rispondere alle segnalazioni di incidenti informatici, come il Computer emergency response team (CERT). Secondo il Wall Street Journal, a fine 2015, erano già una sessantina i Paesi che stavano sviluppando strumenti di cyberspionaggio o attacco, ed una trentina quelli che avevano creato unità specializzate nell’offesa (per esempio il Comcyber francese impiega 2600 unità, mentre il Cyber Command Americano ha raggiunto 6000 unità). Gli esperti di sicurezza riuniti al World Economic Forum di Davos hanno dato proprio da poco, inoltre, l’allarme sul rischio concreto che si verifichino alcuni cyberattacchi durante le elezioni di quest’anno in Europa. La creazione di un tale comando nasce a seguito del riconoscimento, durante lo scorso summit di Varsavia, da parte dei Ministri della Difesa appartenenti al blocco NATO, del cyber-spazio come quinto dominio della conflittualità dopo terra, mare, aria e spazio. Tale importantissimo riconoscimento, che interessa tutti gli Stati appartenenti all’Alleanza atlantica, porterà all’estensione della clausola di difesa collettiva in maniera tale che i vari Stati appartenenti alla NATO si forniscano reciproca assistenza anche in caso di aggressione attraverso attacchi cibernetici. In quest’ottica i neo-nati comandi per le operazioni cibernetiche si occuperanno, quindi , non solo di sviluppare le più idonee capacità di cyber-defence per difendere i propri sistemi informatici da possibili attacchi hacker o di altri paesi nemici, ma svilupperanno anche capacità offensive da utilizzare come mera reazione ad eventuali attacchi portati nei confronti della NATO o di uno dei Paesi alleati. Il vice comandante CIOC, Maurizio La Puca, ha affermato in un recente convegno che il neo comando si pone due obiettivi primari: “il primo è quello di realizzare una capacità operativa per supportare le forze durante le operazioni. Tutto l’apparato militare ha una componente tecnologica che inevitabilmente deve essere protetta e quindi il comando cyber si occuperà di gestire queste operazioni di supporto ai nostri contingenti in diverse aree. Il secondo obiettivo è di portare dentro il comando tutta l’organizzazione della difesa cibernetica a favore del sistema Paese. Ciò significa che il nuovo strumento si integrerà completamente con la struttura organizzativa di difesa cyber nazionale. […] fornendo il suo supporto con degli strumenti avanzati sia sul piano organizzativo sia tecnologico, che costituiranno una evoluzione di quello che è attualmente il campo di azione”.

Il fronte della sicurezza informatica sarà sempre più determinante anche per l’Italia per proteggere segreti militari e industriali, entrambi quotidianamente sotto attacco da parte di pirati informatici di vari Paesi, sia su quello della lotta al terrorismo internazionale. Mentre nel passato la vittoria militare era condizionata dal rapporto di forza dei soldati schierati sul terreno, oggi il principale campo di battaglia è la rete internet che rappresenta il vero sistema nervoso e venoso dell’economia tutta. E proprio perché le minacce nel campo della sicurezza informatica tendono ad evolversi a ritmi impressionanti risulta ancora più vitale ed importante munirsi di una struttura di difesa adeguata, sia a livello nazionale, sia a livello europeo. Dal momento che ormai tutto è connesso, che si parli di rete elettrica, trasporti o infrastrutture critiche, non è più possibile rimandare la discussione sulla cybersecurity e l’avvio dei lavori per il CIOC è indubbiamente un’ottima notizia per noi italiani. Un eventuale attacco informatico potrebbe, infatti, avere conseguenze deleterie su più fronti, mettendo a rischio la sicurezza del Paese, potrebbe destabilizzare un’attività economica o rivelare importanti informazioni che violino la privacy dei singoli cittadini. La mia speranza è , quindi, che si lavori sempre di più su questo fronte, dotando le forze di polizia e di intelligence di strumenti più adeguati alle sfide che provengono dal cyberspazio, termine coniato dallo scrittore William Gibson e che, per definizione, non ha perimetro, non ha frontiere. Ed è anche vero per questo che gran parte di quello che chiamiamo cyberspazio sta in mano a soggetti privati portando quindi molte delle infrastrutture critiche per il paese fuori dai controlli dello Stato, proprio per questo una stretta collaborazione fra pubblico e privato è, a mio parere, fondamentale. Riprendendo le parole del Ministro dell’Interno Minniti: “Viviamo oggi un'epoca in cui la sicurezza cibernetica è, deve essere, parte integrante del nostro sistema paese. Far breccia nei sistemi informativi per carpire segreti industriali, culturali e di intelligence, fino ad arrivare ad attacchi che puntano a far collassare il paese, sono una minaccia seria, reale e costante. Ecco perché riconosco con forza la necessità che le Università, il settore industriale e le istituzioni collaborino per garantire spazi di sicurezza".

Gianluca Cimini

]]>
Mon, 27 Feb 2017 16:44:54 +0000 http://www.gianlucacimini.it/mc/503/1/cioc-un-cyber-comando-militare-per-difendere-l-italia-dagli-hacker---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
ITASEC2017, la prima conferenza italiana sulla Cyber security - di Gianluca Cimini http://www.gianlucacimini.it/mc/502/1/itasec2017-la-prima-conferenza-italiana-sulla-cyber-security---di-gianluca-cimini

Si è svolta a Venezia, dal 17 al 20 gennaio, la prima conferenza italiana sulla cyber security, nella quale esperti del settore hanno fatto il punto per quanto riguarda la ricerca Italiana sull’importante, e quanto mai attuale, problema della sicurezza online. Così circa 500 addetti ai lavori, tra ricercatori, membri del governo, dell’industria e dei servizi, si sono incontrati tra le mura del complesso di San Giobbe dell'Università Ca' Foscari per discutere di tecnologia, cyberwar, industria 4.0, ricerca, protezione di infrastrutture critiche, le capacità di difesa cyber della nazione, le policy italiane e internazionali, la necessità di attrarre investimenti e di sviluppare una più efficace partnership tra settore pubblico e privato. Insomma argomenti assolutamente da non sottovalutare dal momento che ormai tutta l’economia si muove proprio attraverso lo spazio cibernetico e proprio per questo motivo è fondamentale creare, non solo conoscenze approfondite dell’argomento, ma anche un ecosistema integrato, sia pubblico sia privato, in grado di far interagire, a più livelli, proprio queste conoscenze. E si è parlato anche di tanti argomenti che mi sono vicini e che io stesso ho affrontato nei mesi passati: crittografia, malware, Internet of Things, moneta digitale e blockchain, per esempio. In un mondo pervaso totalmente dal digitale, la sicurezza informatica diventa quanto mai fondamentale e strategica per ogni paese. Basti pensare che, dai dati pubblicati dalla Nota scientifica dell'Istituto Demoskopika intitolata "La mappa dell'hacking in Italia”, si evince che dal 2001 ad oggi, a seguito di diversi attacchi informatici, sono state violate le home page e le pagine interne di quasi 12 mila siti internet italiani di “interesse regionale” con in testa a questa particolare classifica la regione Toscana, seguita da Sicilia, Lombardia ed Emilia Romagna. E dei 1.250 hackeraggi analizzati negli ultimi 18 mesi oltre la metà presentano una matrice politica con l’obiettivo primario di produrre rivendicazioni, minacciare ritorsioni verso i Paesi occidentali o dimostrare da parte degli hacker la vulnerabilità del sito e rivendicare l’accessibilità per tutti delle informazioni.

"Il nostro Paese deve costruire un ecosistema cyber che ci permetta di affrontare le minacce cybernetiche del futuro come Sistema-Paese. La ricerca nazionale tutta, il pubblico e il settore privato dovranno trovare una alchimia per creare un ecosistema che favorisca l'innovazione accelerando il trasferimento tecnologico, che aumenti la workforce nazionale in cybersecurity e che riesca a creare i giusti strumenti per una efficace collaborazione internazionale.” queste le parole di Roberto Baldoni, direttore del Laboratorio Nazionale Cybersecurity del CINI che ha creato ITASEC. Il rapporto sinergico tra pubblico e privato è stato, infatti, uno dei principali scopi di Itasec 2017.

Come abbiamo scoperto ultimamente, specialmente riguardo le passate elezioni americane e le presunte interferenze di altri paesi sui risultati dei voti finali, il problema della cyber security sta diventando una priorità in tutte le nazioni più avanzate, dal momento che proprio sul cyber spazio, probabilmente, si giocheranno le battaglie future, non solo a livello militare, ma anche economico, ed avere un vantaggio rispetto alle altre nazioni in questo campo determinerà, a mio parere, la competizione dei prossimi 50 anni. Disporre di capacità di cyber defence significa, infatti, essere in grado di espletare funzioni di prevenzione e di protezione della propria infrastruttura in uno scenario geopolitico mondiale asimmetrico e multiforme. Come ha affermato durante la conferenza il Sottosegretario alla Difesa Domenico Rossi: “oggi il principale campo di battaglia è la rete internet, che rappresenta il vero sistema venoso e nervoso dell’economia. […] Un processo impegnativo che si sviluppa attraverso l’implementazione di strutture difensive adeguate, in continuo aggiornamento grazie alla ricerca e alla formazione di personale qualificato nel settore della difesa cibernetica”.

Infatti, ormai, quando si parla di operazioni militari, ci si riferisce, in termini di tecnologia, ad un flusso costante di informazioni digitali, utili per garantire una capacità di reazione ed organizzazione migliore ma, allo stesso tempo, a dati sensibili che, se non opportunamente protetti, possono portare un possibile vantaggio tattico a diventare un punto di debolezza senza precedenti. Mi auguro, quindi, che anche l’Italia riesca a fare “sistema” riguardo alla complessità dei problemi che lo spazio cibernetico porta con sé, anche perché questo è un mondo in continua evoluzione ed è necessario rimanere aggiornati con le dovute conoscenze sulle nuove tecnologie. Il rischio cyber evolve rapidamente ponendo nuove e più complesse sfide. 

Gianluca Cimini

]]>
Fri, 24 Feb 2017 16:39:10 +0000 http://www.gianlucacimini.it/mc/502/1/itasec2017-la-prima-conferenza-italiana-sulla-cyber-security---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Design, sostenibilità ed energia elettrica si uniscono nelle case di Elon Musk - di Gianluca CImini http://www.gianlucacimini.it/mc/501/1/design-sostenibilita-ed-energia-elettrica-si-uniscono-nelle-case-di-elon-musk---di-gianluca-cimini

Fondatore di Paypal, Tesla Motors e SpaceX, indubbiamente Elon Musk è un uomo dai mille piani che potrebbero cambiare la vita di molti di noi, dalle auto elettriche per il grande pubblico, ad aziende per noleggiare l’energia solare, oppure alla realizzazione di un veicolo spaziale riutilizzabile. Ho ascoltato con piacere l’imprenditore sudafricano, naturalizzato statunitense, Musk discutere, durante un TED, con il curatore della piattaforma di conferenze statunitensi Chris Andersen e ritengo molti dei suoi progetti visionari, ma sicuramente anche estremamente accattivanti. Per chi non conoscesse cos’è un TED (non parlo dell’orso pupazzo ovviamente) mi riferisco a conferenze su tecnologia, design, mondo scientifico, culturale ed accademico, diffuse gratuitamente in live streaming attraverso internet e tenute dai maggiori esperti dei settori interessati (la cui missione è riassunta nella formula "ideas worth spreading" ossia “idee che val la pena diffondere”).

L’ultima genialità di Mister Musk è stata presentata qualche mese fa: un tetto solare costituito da piastrelle di vetro e progettato per introdurre i pannelli solari nella case in una maniera più accattivante ed attraente, perché è pur vero, a mio avviso, che la tecnologia migliore è quella che ha una grande diffusione ed un grande impatto sulla vita delle persone. Obiettivo dell’azienda “SolarCity” , azienda specializzata in prodotti e servizi legati al fotovoltaico di cui Musk è l’investitore principale e presidente del consiglio di amministrazione, è la lotta al riscaldamento globale attraverso l’utilizzo di tecnologie green. La grande maggioranza dei pannelli fotovoltaici che abbiamo conosciuto fino ad oggi, funzionano attraverso l’attività di più celle fotovoltaiche che sono gli elementi primari per innescare l’effetto fotovoltaico ossia la reazione fisica in grado di produrre energia attraverso il sole. Il funzionamento delle celle solari è legato, infatti, alla complessa interazione fra luce e materia, e coinvolge la natura e le caratteristiche della luce, la fisica dei materiali e la realizzazione di dispositivi elettronici. Senza addentrarmi troppo in dettagli tecnici, una cella fotovoltaica (costituita da silicio, ossia uno dei materiali semiconduttori più presenti in natura e costituita da due strati: uno drogato negativamente ed un altro drogato positivamente) quando si trova colpito dalla luce solare genera per mezzo delle differenze di cariche una reazione fisica in grado di creare un campo elettrico in corrente continua. Grazie a questa reazione fisica ogni pannello è in grado di generare, partendo dai differenziali di carica tra due strati di silicio puro, corrente elettrica continua (trasformata in corrente alternata successivamente tramite un inverter). Se è pur vero che la tecnologia del fotovoltaico sta migliorando negli anni, rimane, comunque, il problema dell’installazione di grossi pannelli sui tetti delle case (discorso diverso va fatto quando questi pannelli vengono utilizzati in aziende o parcheggi auto dal momento che sono più facilmente assimilabili al contesto), problema che può essere ovviato grazie all’utilizzo di speciali piastrelle costituite di vetro che si sostituiscono totalmente ai vecchi pannelli. Personalizzabili secondo le richieste del cliente, che può scegliere il design dei singoli elementi per adattarli meglio allo stile specifico della casa, le speciali piastrelle tendono a scomparire sul tetto a tal punto da mimetizzarsi completamente con la casa. L’energia immagazzinata dalle piastrelle andrebbe poi a convogliarsi in speciali batterie (Powerwall 2 dal costo di circa 5.500 $) in grado di erogare tale energia per tutti gli usi di casa o anche, nel caso di energia in eccesso, per essere venduta. Il prodotto si rivolge ai costruttori di case e coloro che cercano di sostituire i loro tetti con piastrelle più resistenti, con una migliore qualità di isolamento e ad un costo più basso, così affermano almeno, rispetto a quanto verrebbe un tetto convenzionale a cui dovesse essere in seguito aggiunto un sistema fotovoltaico tradizionale. Il lato estetico di certe tecnologie a volte viene completamente ignorato, ma è pur vero che un prodotto che sia esteticamente attraente, oltre che funzionale, ha una marcia in più sul mercato. L’estetica delle “tessere” che compongono il tetto è stata progettata per integrarsi perfettamente con le celle solari incorporate, in maniera impercettibile, in ogni singola piastrella di vetro. Ha affermato l’AD di SolarCity: ”Questa è una sorta di futuro integrato. Una macchina elettrica, un Powerwall e un tetto solare. La chiave è che deve essere bella, conveniente e perfettamente integrata".

Tutto, infatti, rientra in un progetto più grande di trasformazione della vita dei consumatori volta all’utilizzo di queste tecnologie green (dove si combinano auto elettriche e batterie, di cui Musk è precursore da quando ha fondato l’innovativa compagnia automobilistica Tesla), senza più dover ricorrere ai combustibili fossili o ad un’idea di rifornimento energetico impostato dall’alto, dal momento che ogni singola famiglia può diventare un nodo dello scambio energetico del futuro, dove ogni nucleo familiare produce per sé e vende o condivide l’energia in eccesso prodotta in maniera ecologica e sostenibile a casa. Le batterie di ultima generazione permettono, inoltre, di sfruttare l’energia solare come fonte energetica 24 ore su 24, 7 giorni su 7, mettendola automaticamente a disposizione quando il sole non c’è. La combinazione tra pannelli solari e batterie può, quindi, moltiplicare i vantaggi economici dell’energia solare e ridurre l’impatto ambientale. Forse a volte ce lo dimentichiamo ma il nostro amato sole irradia ogni anno sulla Terra una quantità di energia pari a circa 10.000 volte il consumo mondiale di energia primaria. Oltre al grande potenziale energetico, la fonte solare è rinnovabile per definizione e ha un impatto ambientale molto ridotto. Tuttavia, nonostante la sua efficacia, l’energia solare rimane una fonte di energia alternativa, relativamente sottoutilizzata. Mi auguro quindi che, tecnologie come queste, o come le prossime che arriveranno, possano aiutare questo importante settore ad avere un incremento significativo nel mercato energetico. Il mondo si può cambiare fin dalle nostre mura di casa, dopotutto.

Gianluca Cimini

]]>
Tue, 21 Feb 2017 21:53:39 +0000 http://www.gianlucacimini.it/mc/501/1/design-sostenibilita-ed-energia-elettrica-si-uniscono-nelle-case-di-elon-musk---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Prevenire e contrastare il Cyberbullismo, il disegno di legge viene approvato - di Gianluca Cimini http://www.gianlucacimini.it/mc/500/1/prevenire-e-contrastare-il-cyberbullismo-il-disegno-di-legge-viene-approvato---di-gianluca-cimini

Prevenire e contrastare il fenomeno del bullismo e della sua versione più moderna e sicuramente più pericolosa, ossia quel bullismo portato avanti sui social media attraverso campagne denigratorie veloci, efferate e difficilmente arginabili, è l’argomento del momento al Senato. Il primo febbraio, praticamente all’unanimità, infatti, è stato approvato il disegno di legge che punta a contrastare il grave fenomeno del cyberbullismo che porta con sé in questa ultima revisione la novità della definizione del fenomeno e la possibilità per il minore (anche senza che il genitore lo sappia) di chiedere direttamente al gestore del sito l’oscuramento o la rimozione della “cyber aggressione”. Da quel momento in poi, chi ospita il contenuto ha 24 ore per accogliere la richiesta e 48 ore per procedere alla rimozione. In caso di inerzia ci si può allora rivolgere al Garante della Privacy, ma in questo caso assieme a un adulto. Il disegno di legge introduce la procedura di ammonimento, come avviene per lo stalking, al fine di responsabilizzare i minori ultraquattordicenni autori di reati tenendoli però, nei casi in cui è consentito dalla legge, fuori dal penale. E se si sbaglia, poi, bisogna rieducare attraverso istituzioni, forze dell'ordine, eccellenze sanitarie, esperti di pedagogia, di diritto, famiglie ed insegnanti.

Con la speranza che venga approvato al più presto il DDL dopo l’esame della Camera si inizia così ad affrontare un fenomeno grave, ma spesso sottostimato. Ricordo ancora quando frequentavo le scuole medie o superiori e già allora i tipici bulli si approfittavano di quei compagni di classe visti come più deboli o isolati,  deridendoli pubblicamente o architettando scherzi più o meno leciti. Un tempo, però, l’offesa rimaneva tra le mura della classe e di solito si concludeva con un chiarimento tra i soggetti interessati, almeno nella maggior parte dei casi. Oggi invece in una scuola o in una società connessa, aperta e veloce tutto ha preso una piega differente ed un uso distorto della rete da parte di un singolo o di un gruppo di persone può portare, se indirizzato verso un minore, a conseguenze tragiche. E negli ultimi anni, purtroppo,  esempi di bullismo finiti male ce ne sono stati, e quando la “macchina del fango” si mette in moto non è facile bloccarla e le conseguenze possono essere catastrofiche se non si agisce velocemente per ripristinare la dignità di una persona o la sua reputazione, magari ingiustamente lesa. Quello del cyberbullismo è un fenomeno in crescita esponenziale, intervenire è quindi prioritario proprio perché le vittime sono spesso i soggetti più fragili come i minori. Non esiste al momento un’adeguata educazione all’uso dei social media, né tantomeno strumenti critici per utilizzare mezzi così veloci e pervasivi che vengono ormai utilizzati fin dalla giovane età senza domandarsi  quali siano i possibili aspetti negativi e le ripercussioni che tali mezzi possono avere sulla formazione dell’identità di un individuo. La centralità delle scuole è, a mio avviso, fondamentale per affrontare il problema del bullismo e ben vengano giornate dedicate al delicato tema (come quella organizzata il 7 febbraio dal Miur: "Un Nodo Blu - le scuole unite contro il bullismo”) ma non basta. La questione si dovrebbe affrontare in maniera ancora più approfondita, il problema è che molti insegnanti riguardo a cultura digitale hanno spesso da imparare più degli stessi studenti interessati. In seguito alle nuove norme europee in tema di trattamento dei dati personali anche social media e piattaforme dovranno organizzarsi attraverso delle apposite strutture interne per far fronte in maniera tempestiva alle varie richieste di rimozione, agire in maniera veloce è fondamentale, infatti, per limitare i danni provocati dalla diffusione di notizie false o atti di cyberbullismo. Mentre un tempo era sufficiente cambiare scuola, la viralità del bullismo telematico non ha limiti di tempo e di spazio proprio perché può raggiungere chiunque, ovunque e a tutte le ore e questo lo rende a mio avviso molto più pericoloso del tradizionale bullismo. Con la diffusione, inoltre, di profili falsi che nascondono il vero responsabile delle condotte vessatorie, non sempre la vittima sa chi ha contro e anche per questo ha difficoltà nell’agire poiché non capisce chi la stia molestando. Ed il bullo si fa spesso forza proprio del poter agire quasi indisturbato e totalmente celato dietro ad un nickname che non gli appartiene, gratificandosi magari dei consensi ottenuti attraverso le sue azioni e condivisi dai follower che lo seguono. La rete esclude di per sé un contatto diretto tra vittima e bullo che, infatti, nel suo agire perde il senso della sofferenza che provoca e del disagio che crea nella vita della vittima della sua azione di bullismo. Mi auguro che questa legge possa assicurare non solo supporto alle vittime di bullismo, ma che dia anche inizio ad una diversa educazione dei giovani e delle giovani affinché sappiano rifiutare l’odio online ed imparino a difendersi nel caso diventassero vittime di cyberdiscriminazioni o di cyberbullismo. La rete è un mezzo potente e globale e, come mezzo, ha un enorme potenziale che può essere sfruttato per ogni causa positiva immaginabile, ma anche per scopi meno nobili, necessita, quindi, non nella rete stessa, ma nell’educazione delle persone una maggiore consapevolezza di quello che possiamo portare allo spazio web per renderlo più sicuro e libero dall’odio per tutti. Non criminalizzare il web quindi, ma saper prevenire e promuovere un uso corretto della rete, mettendo in primo piano la responsabilità individuale e collettiva sia dei minori sia degli adulti, aiutando i nostri ragazzi ad un uso civile e corretto della rete, ma lo strumento principale per contrastare questo fenomeno rimane, secondo me, sempre e comunque la formazione, l’attività educativa e il confronto nelle scuole, perché i nostri ragazzi ancora prima che navigatori virtuali sono persone reali.

Gianluca Cimini

]]>
Sat, 18 Feb 2017 17:37:20 +0000 http://www.gianlucacimini.it/mc/500/1/prevenire-e-contrastare-il-cyberbullismo-il-disegno-di-legge-viene-approvato---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Formula E: i bolidi, stavolta elettrici, potrebbero tornare a Roma http://www.gianlucacimini.it/mc/499/1/formula-e-i-bolidi-stavolta-elettrici-potrebbero-tornare-a-roma

A distanza di anni dal progetto di portare la Formula 1 a Roma tra le strade del quartiere Eur, ritorna nelle mire degli organizzatori l’ipotesi per la Capitale di ospitare un gran premio automobilistico, si parla però stavolta di Formula E, ossia il nuovo campionato dedicato esclusivamente alle monoposto elettriche. Il sogno dell’ex Sindaco Alemanno che, all’epoca inquilino di Palazzo Senatorio, sognava di veder sfrecciare Ferrari e McLaren all’ombra del Colosseo Quadrato, era naufragato sia per diverse polemiche politiche, sia per le proteste degli ecologisti e dei cittadini residenti nel quartiere dell’Eur. Sul tracciato proposto in passato potrebbe però arrivare un altro grande evento sportivo dall’anima “green”. La corrispondenza tra la nuova Sindaca Cinquestelle Raggi e la FIA potrebbe, infatti, portare nella Capitale, nell’ambito di un programma strutturato alla mobilità sostenibile, una tappa del campionato di Formula E, dall’impatto minimo e, come affermano dal Campidoglio, con un ritorno economico positivo per tutta la città. Vantaggi per la città potrebbero arrivare, oltre al successo di ospitare un evento di risonanza mondiale, dal rifacimento, a costo zero, del manto stradale e dall’installazione di colonnine permanenti per la ricarica delle auto elettriche, con un indotto generato dalla gara di diversi milioni di euro, senza , però, che sia un evento invasivo come per altre categorie di gare , dal momento che il patron della Formula E Alejandro Agag ha sempre voluto dare alla sua creatura un’impronta ambientalista con strutture utilizzate semplici, paddock provvisori e grande coinvolgimento del pubblico e della cittadinanza.

In passato, precisamente tra il 1925 e il 1991, Roma aveva già ospitato tra le sue strade una grande gara automobilistica e motociclistica: il Gran Premio di Roma. Nei vari eventi svolti negli anni, molti erano stati i circuiti cittadini usati e molte le categorie di vetture utilizzate nel gran premio: Formula 2, Formula 3000 e Formula 1. Le prime gare vennero svolte nei pressi dell’aeroporto dell’Urbe, in seguito ne furono organizzate altre a Ostia sul cosiddetto “Circuito dell’Impero” e dopo la guerra ci si spostò sul circuito cittadino presso le Terme di Caracalla. Ma il primo vero e proprio GP di Formula 1 a Roma (dal momento che la F1 nacque ufficialmente nel 1950) si svolse il 6 giugno del 1954 sulla lunga striscia d’asfalto che attraversa la pineta di Castel Fusano ad Ostia sul litorale romano (e che ora ha preso il nome di “Viale del Circuito”). Questa gara, che purtroppo non assegnava punti validi per il titolo iridato, vide la partecipazione di tutti i più grandi piloti dell’epoca come Ascari, Fangio e Moss. La Formula 1 in seguito tornò a Roma sul circuito di Vallelunga nel 1963 e nel 1972 cambiando denominazione in “GP della Repubblica Italiana”. Questa fu l’ultima occasione per la Capitale di ospitare l’importante evento e nemmeno l’interessamento da parte di Enzo Ferrari in persona nei primi anni 80 riuscì a riportare la Formula 1 nella città eterna.

Ideata nel 2012 e con il suo primo campionato inaugurale iniziato il 13 settembre 2014, la Formula E è una categoria automobilistica ideata dalla Federazione Internazionale dell’Automobile dedicata esclusivamente a veicoli spinti da motori elettrici. Bolidi velocissimi che non sfondano i timpani con assordanti ruggiti, non inquinano con fumi di scarico, ma ronzano appena: potrebbe essere questo il futuro delle auto da competizione. Al contrario della maggior parte delle categorie automobilistiche che abbiamo visto fino ad oggi, le gare di Formula E vengono svolte quasi esclusivamente su circuiti urbani su tracciati con una lunghezza compresa tra i 2,5 e i 3km. Le monoposto elettriche, di base tutte uguali tra loro, pesano circa 900 Kg, sono alimentate da batterie da 28 kWh collegate a motori che erogano da 170 a 200 kW a seconda dei frangenti della corsa. L’unica differenza tecnica ammessa fra le vetture è il cambio, che può essere fornito da vari costruttori purché rispetti le credenziali tecniche imposte dalla Fia. Le prestazioni di queste autovetture promettono un’accelerazione da 0 - 100 km/h in 3 secondi e una velocità massima a 225 km/h. Ad oggi l’autonomia delle monoposto è ancora limitata, ma il problema potrebbe essere risolto nelle prossime stagioni grazie ad un nuovo pacco batterie di derivazione McLaren. Sulle varie specifiche e regole i giochi sono ancora aperti, dal momento che ogni anno la FIA sta cercando di migliorare questa nuova categoria di gare con l’obiettivo che i costi non lievitino e rimangano quegli standard di sostenibilità che sono un’area chiave per la filosofia intrinseca della Formula E. Mentre scrivo questo articolo è in corso, inoltre, la terza stagione del campionato che si concluderà il 30 luglio 2017 a New York (visibile in chiaro su RaiSport sul digitale terrestre).

Il progetto dell’E-Prix è molto diverso da quello prospettato anni fa per il GP di Formula 1, nonostante questo in Italia è subito partita nuovamente la campagna del No da parte di comitati di cittadini e residenti dell’Eur, altrove, invece, le maggiori capitali del mondo (New York, Parigi, Berlino, Monte Carlo, Buenos Aires) contendono tra loro per portare le monoposto elettriche sulle loro strade. Proteste e consensi, quindi, per un evento che nella sua organizzazione prevede gare solo un giorno (il sabato) per bloccare il meno possibile il quartiere che ospita l’evento e non impatta sulle città con strutture permanenti. Il percorso previsto per l’evento sarebbe già pronto e si snoderebbe per tre o quattro chilometri tra le vie dell’EUR, passando per parte della Cristoforo Colombo e sviluppandosi a forma di “T”. La competizione verrebbe accompagnata da una settimana di eventi tutti dedicati alla promozione dell’elettrico e delle energie alternative sfruttando anche la Nuvola, il nuovo centro congressi inaugurato poche settimane fa. Questa potrebbe essere un’opportunità in più per la città eterna che si aggiungerebbe così alle altre capitali toccate dal campionato delle monoposto a batteria. Cosa ci guadagnerebbe Roma oltre al prestigio di una manifestazione internazionale? Ad ascoltare il presidente di Eur Spa, Roberto Diacetti, a fronte di circa 12 milioni di costo della manifestazione, a carico della Formula, l’indotto dovuto alle presenze potrebbe anche sfiorare i 40 milioni di euro a beneficio dell’Urbe. L’idea di un gran prix assolutamente green, anche a fronte della chiusura di alcune strade per alcune ore nel weekend in accordo con cittadini, non mi sembra così male, specie se l’Italia vuole rilanciare il turismo, che da solo dovrebbe diventare la nostra prima voce del PIL, ed aprirsi a nuove opportunità che gli vengono offerte da un evento internazionale nel segno delle energie alternative e della sostenibilità ambientale.

Gianluca Cimini

]]>
Fri, 10 Feb 2017 19:59:59 +0000 http://www.gianlucacimini.it/mc/499/1/formula-e-i-bolidi-stavolta-elettrici-potrebbero-tornare-a-roma gianlucacimini2016@gmail.com (Gianluca Cimini)
Ecosistema delle startup italiane a fine 2016, bene, ma non benissimo - di Gianluca Cimini http://www.gianlucacimini.it/mc/498/1/ecosistema-delle-startup-italiane-a-fine-2016-bene-ma-non-benissimo---di-gianluca-cimini

Riguardando il bilancio relativo alla nascita, crescita e declino delle startup italiane per l’anno che si è appena concluso è innegabile notare che qualcosa si sta muovendo nell’ecosistema tricolore: ancora non abbastanza per un mercato importante come quello italiano, ma gli investimenti sono i più alti mai registrati da quando, nel 2012, si è iniziato a mappare tali operazioni. Per farsi un’idea nei soli primi sei mesi del 2016 gli investimenti sono stati pari a 86,2 milioni di euro, circa 52 milioni in più rispetto allo stesso periodo del 2015. E si parla solamente delle startup con base in Italia, se allargassimo, invece, lo sguardo anche a quelle all’estero fondate da italiani o trasferite in seguito, si raggiungerebbe la ragguardevole cifra di oltre 142 milioni. Durante l’anno nel mercato sono entrate aziende, più o meno grandi, che hanno comprato quote in startup per decine di milioni. Altrove, seguendo il trend del momento, abbiamo visto invece startup investire in altre startup. Ma le nostre startup fanno gola anche al mercato internazionale, otto di queste sono state acquisite da aziende estere che in questo modo hanno potuto trasferire competenze e talenti dall’esterno all’interno del perimetro dell’impresa. Da dispositivi medici, a soluzioni tecnologiche innovative, passando per l’editoria digitale, la cultura culinaria o il settore delle automotive, senza dimenticare viaggi, vacanze ed ovviamente la stampa 3D, insomma, le nostre startup fanno gola a molti. A maggio si è conclusa anche la prima acquisizione italiana da parte di Microsoft, che ha aggiunto al suo network la bolognese “Solair”,  società che si occupa di cloud computing e internet of things ed una delle poche italiane ad aver raggiunto un fatturato di un milione di euro.

La maggior parte delle startup deve la propria nascita, ossia trasformazione della singola idea in vera e propria realtà imprenditoriale, ai cosiddetti “incubatori” che supportano l’idea di base ed aiutano la giovane startup a crescere e maturare fino alla realizzazione e commercializzazione del prodotto finale. Nonostante una vocazione internazionale, le varie startup non dimenticano il legame col territorio che le ospita e possono essere, quindi, un importante traino per l’occupazione locale in quelle zone con crescita bassa e disoccupazione in crescita. Gli stessi incubatori a livello nazionale possono assumere un ruolo fondamentale per il rilancio dell’economia. Durante quest’anno grandi Big di Internet hanno espresso fiducia nel sistema Italia: da Google, che ha lanciato il primo programma di accelerazione per Android a Roma, alla prima accademia per sviluppatori di Apple a Napoli, per citare le due realtà più importanti. Tutti ormai sanno che le startup possono rivitalizzare l’economia, non è un caso che gli amministratori delegati delle aziende più importanti ne discutano cercando di capire come approcciarsi a nuovi modelli di business. È fatto noto che molte startup promettenti, cresciute in incubatori italiani, finiscono poi per affidarsi a finanziamenti in paesi esteri, dove le conseguenze in termini di vincoli e condizioni sono differenti. Perché dare l’avvio ad una startup in Italia potrà anche non essere difficilissimo, la vera sfida è quella di riuscire a farla sopravvivere. Nella Silicon Valley lavorano nel settore dell’high tech circa 564 mila sviluppatori, Londra, Parigi e Berlino insieme ne contano circa 515 mila e in Italia? Pochi, pochissimi, pari quasi allo 0,05% di una città grande come Roma e purtroppo, a mio avviso, un Paese che non riesce a generare professionisti del settore rischia la stagnazione. La competizione a livello internazionale per accaparrarsi i professionisti migliori si sta facendo sempre più intensa complice la facile mobilità e gli stipendi appetibili offerti in alcuni Paesi. Uno sviluppatore in Svizzera, tanto per fare un esempio, può avere una retribuzione annua pari all’equivalente di 90.000 dollari, la media italiana è invece di circa 34.000 dollari, una media che la rende così il terzultimo paese in Europa per attrattività delle retribuzioni a pari di Spagna e davanti solo a Grecia e Portogallo. Proprio le retribuzioni sono uno dei deficit che incrina il mercato italiano del tech. E considerando tutto questo non è un caso che chi ha studiato e si è impegnato tanto tenda a spostarsi a seconda delle varie offerte contrattuali.

Non influirà magari sugli stipendi dei vari sviluppatori, ma l’ultima legge di bilancio, approvata a dicembre 2016, anche se in sordina, contiene diverse novità alquanto interessanti a sostegno delle startup e delle piccole medie imprese innovative. Tutte misure che sono entrate in vigore da quest’anno e di cui la più importante è quella degli incentivi. Leggendo la manovra, infatti, sono venuto a conoscenza della possibilità, per chi investe in startup e PMI innovative, di poter usufruire di detrazioni fiscali di un terzo dell’importo investito. Viene così innalzata al 30% e fino a 3 anni  la quota detraibile annualmente dall’Irpef in modo che un nuovo socio, che sia persona fisica o impresa, che entra nel capitale di una startup, possa scontare dalle proprie tasse un terzo della somma versata nell’aumento di capitale nella dichiarazione dei redditi del 2018. E, se sommiamo quest’ultima novità sugli investimenti al piano per l’Industria 4.0, allo Spid e digitalizzazione della Pubblica Amministrazione, alla possibilità di poter creare nuove startup online e senza notaio, alla costituzione del Team sulla trasformazione digitale, ci viene lecito pensare che finalmente la direzione intrapresa potrebbe essere quella giusta: portare l’Italia a poter competere in maniera più incisiva alla pari di altri paesi europei nei grandi mercati internazionali. 

Gianluca Cimini

]]>
Thu, 9 Feb 2017 19:37:21 +0000 http://www.gianlucacimini.it/mc/498/1/ecosistema-delle-startup-italiane-a-fine-2016-bene-ma-non-benissimo---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Crescita continua per l’IoT: nel 2020 metà dei dispositivi saranno intelligenti - di Gianluca Cimini http://www.gianlucacimini.it/mc/497/1/crescita-continua-per-l-iot-nel-2020-meta-dei-dispositivi-saranno-intelligenti---di-gianluca-cimini

Ricerche di settore ci descrivono già da ora una situazione di continua crescita per il futuro del cosiddetto: ”Internet of the Things” con tassi di crescita del 16% entro il 2020 e spese che si pensa possano arrivare, per investimenti hardware e di produzione, a più di 1.3 trilioni di dollari. Cifre altissime grazie a potenziali di crescita che si muovono sulla fiducia che un mondo più connesso, dall’auto alla casa e alle tecnologie che viviamo ogni giorno, sarà quello in cui vivremo negli anni a venire. Gran parte degli investimenti futuri su questo importante campo andranno, secondo una autorevole ricerca dell’International Data Corp (IDC), verso l’hardware che corrisponde alla più grande categoria di investimenti nel settore dell’IoT. Con una spesa vicina ai 400 bilioni di dollari entro il 2020, la maggior parte degli acquisti di hardware sarà costituita da versioni più aggiornate e performanti di moduli e sensori capaci di connettersi a server remoti per processare le varie operazioni richieste. Al crescere dell’hardware corrisponderà inoltre, a mio avviso, di conseguenza, un aumento della categoria software che creerà nuovi e più funzionali servizi per tutti: dalle assicurazioni, alla vendita al dettaglio, all’assistenza sanitaria, tanto per fare qualche esempio. Nel complesso le varie opportunità offerte dall’IoT apriranno un mercato totalmente nuovo e variegato a disposizione di venditori ed utilizzatori finali. La ricerca pubblicata ci dice inoltre che, nei prossimi cinque anni, sarà l’industria manifatturiera quella che darà più fiducia all’Internet delle cose con investimenti maggiori rispetto a qualunque altra categoria. Allo stesso tempo molte altre realtà seguiranno il trend in rialzo dell’IoT, investimenti arriveranno da molte direzioni differenti che rappresentano casi di utilizzo comuni a tutti i settori industriali, come , ad esempio, i veicoli collegati e gli edifici intelligenti, che saranno sicuramente i segmenti che cresceranno di più nei prossimi cinque anni. La crescita di questi prodotti, che siano sensori singoli o dispositivi più articolati, è strettamente legata anche alla riduzione dei costi unitari dei vari elementi hardware. Anche per questo entro il 2021, sempre secondo il rapporto IDC, il numero di dispositivi IoT arriverà ad oltre 46 miliardi di unità con una crescita rispetto ad oggi del 200%.

Sono sempre di più i dispositivi intelligenti al mondo, si pensi, infatti, che una ricerca commissionata dalla Interactive Advertising Bureau (IAB) ci riporta che due terzi degli Americani possiedono almeno un dispositivo IoT. I dispositivi più diffusi sono le SmartTV e i dispositivi di Streaming (un 47% degli intervistati), a seguire dispositivi sanitari di localizzazione (24%) e oggetti per il controllo remoto delle case intelligenti (17%). Tra gli utilizzatori, i prodotti IoT spopolano in quella fascia d’età compresa tra i 18 e i 34 anni, con una media di reddito superiore alla media nazionale americana e studi universitari in corso o completati. Cambiando continente la crescita del mercato dell’Internet delle cose in Cina sarà indirizzato specialmente all’agricoltura con sistemi in grado di misurare la giusta quantità di fertilizzanti e sostanze nutritive delle piante, riducendo allo stesso tempo la somministrazione di acqua e di concime, permettendo così un discreto risparmio agli agricoltori.

La proliferazione e l’affermazione a livello mondiale dei dispositivi legati all’Internet delle cose porterà con sé molte nuove sfide: in primis, molti dei sistemi di analisi e di database odierni sono stati creati con un architettura pre-IoT e sono incapaci di gestire l’era dei Big Data. Questi aspetti includono, quindi, rinnovati sistemi di analisi progettati per funzionare su macchine meno performanti, come i routers. Un’altra grande sfida si giocherà sulla creazione di standard comuni per riuscire a fare dialogare i vari dispositivi IoT. Al giorno d’oggi questo è uno dei maggiori problemi che personalmente ho notato, con produttori che stanno cercando di creare un vasto mondo di prodotti intelligenti capaci di dialogare tra loro ma che,  per ora, faticano il più delle volte ad interfacciarsi se sviluppati su piattaforme che non sono simili . Non di meno conto sarà risolvere, o almeno arginare, i problemi di sicurezza che i dispositivi intelligenti presentano: l’anno appena passato ha visto un numero sempre maggiore, infatti, di attacchi hacker di tipo DoS, distribuiti tramite botnet, che hanno sfruttato le vulnerabilità dei dispositivi IoT per trasformarli in zombie intelligenti. E da questo tipo di problematiche, nel medio termine, minacce future potrebbero interessare anche il furto di dati aziendali o personali. Ricordando che molti devices sono stati lanciati sul mercato per seguire il trend del momento senza, però, essere adeguati a possibili minacce di sicurezza, si palesa così per molti produttori IoT l’impossibilità di proteggere tali prodotti, perché magari non dispongono della memoria e della capacità di elaborazione necessarie per essere aggiornati. Questo dovrebbe farci pensare su quanto in effetti la sicurezza dell’IoT sia ancora lontana. Gli oggetti casalinghi smart si connettono alla rete in modo seriale ed automatico rispondendo a porzioni di codice e a software Open Source, protetti solitamente con password deboli senza risorse hardware o software per proteggersi dalle intrusioni (né firewall né antivirus e nemmeno una connessione https la cui implementazione renderebbe il dispositivo più costoso e lento nel rispondere). Il futuro dell’IoT, anche solo per creare maggiore fiducia negli utilizzatori finali dei prodotti, dovrebbe, quindi , mettere in cima alla lista dei problemi da affrontare, secondo me, proprio la questione della sicurezza, ma da questo punto di vista gli investimenti su questo fronte non sembrano essere ancora adeguati.

Gianluca Cimini

]]>
Mon, 6 Feb 2017 17:18:17 +0000 http://www.gianlucacimini.it/mc/497/1/crescita-continua-per-l-iot-nel-2020-meta-dei-dispositivi-saranno-intelligenti---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Opportunità di investimento 2017: il passaggio sicuro da FinTech ad EdTech. http://www.gianlucacimini.it/mc/496/1/opportunita-di-investimento-2017-il-passaggio-sicuro-da-fintech-ad-edtech

Nel mondo in cui viviamo, in un periodo di quella che chiamano la quarta rivoluzione industriale, se guardiamo al mondo della finanza, è sulla fornitura di servizi e prodotti finanziari attraverso le più avanzate tecnologie dell'informazione (ICT) che il nostro occhio si posa. Le imprese tecnofinanziarie in poco tempo sono riuscite a rivoluzionare il mondo delle banche riuscendo a cogliere il cambiamento della società e le nuove domande dei consumatori sempre più affamati di servizi innovativi e digitali. La trasformazione è avvenuta seguendo questo principio: cose di facile comprensione, di grande accessibilità e di immediato utilizzo. In pochissime parole il Fintech (derivante dall’inglese Financial Technology) è un settore composto da società che usano la tecnologia per rendere i sistemi finanziari più efficienti. L’area Fintech, attualmente, include una svariata tipologia di attività diverse: crowdfunding, peer-to-peer lending, asset management gestito con algoritmi, gestione dei pagamenti, credit-scoring, valute digitali o cripto-valute (come ad esempio il BitCoin). Così, con un pizzico di innovazione e tecnologia aggiunti ai più tradizionali servizi, la tecnologia finanziaria europea ha attratto investimenti, nei primi nove mesi del 2016 , per circa 1,1 miliardi (secondo il report realizzato per la nuova edizione del “State of European tech” dal fondo di investimento “Atomico”). Gli investimenti globali , invece, nelle varie compagnie FinTech hanno raggiunto i 19,1 miliardi di dollari nel 2015, 13,8 dei quali provengono da fondi di venture capital, per una crescita rispetto al 2014 del 106%. Ma gli investitori per gli anni a venire, nonostante non ci siano segni di cedimento per la tecnofinanza, guardano a prospettive meno volatili e meno legate alla situazione geopolitica mondiale cercando di evitare quei mercati, come quello finanziario, troppo saturo di offerte e a rischio di stabilità. Da queste analisi esce un nuovo protagonista per chi è interessato a grandi opportunità di investimento nel 2017: il campo della formazione ed in questo ambito il nome è uno solo:” EdTech.”

Il settore dell’educazione, che si avvia fortemente verso la sua più completa digitalizzazione, è un mercato immenso e, probabilmente, diventerà il più remunerativo di sempre con il passare degli anni. Gli investitori negli anni passati hanno preferito focalizzarsi su altre opportunità di investimento (ad esempio, nel solo 2015, sono stati più gli investimenti su Uber che sull’intero settore EdTech), ma ora che si parla di circa 5 trilioni di dollari all’anno di investimenti mondiali, tutto sembra cambiare. Proprio come la digitalizzazione ha trasformato il settore dei servizi finanziari così l’ascesa di nuovi metodi di apprendimento sta finalmente cambiando anche le aule e le scuole di oggi con professori che non si accontentano di leggere e spiegare libri di testo fisici o fotocopie di carta, ma utilizzano sempre di più schermi digitali per illustrare gli aspetti delle loro lezioni e servizi interattivi, anche online, più approfonditi ed aggiornati che permettono agli studenti di conoscere, interagire ed imparare in un modo completamente nuovo. Viviamo in un mondo dove ormai i giovani sono tutti nativi digitali e quelle stesse tecnologie che utilizzano ogni giorno a casa ed in mobilità, con tablet e smartphone, sono fortemente richieste ed attese anche all’interno dei vari istituti di istruzione. In molte città i tablets, infatti, sono diventati un’ aggiunta essenziale alla scuola ordinaria grazie ai nuovi software che li trasformano in formidabili oggetti per l’apprendimento. La tecnologia dietro a queste innovazioni nasce, per ora, da un gruppo limitato di aziende informatiche, che stanno raggiungendo cifre molto ragguardevoli di profitto grazie ad un mercato ancora giovane. L’EdTech è diventato così uno dei settori più caldi della Silicon Valley grazie alle aziende che condividevano la visione comune che l’educazione, una delle industrie più resistenti al cambiamento, potesse ottenere diversi benefici dall’innovazione tecnologica. Fondamentale è capire, inoltre, quanto importante sarà il settore dell’informatica per gli anni a venire, e per chi ancora non lo sapesse, sarà fondamentale dal momento che ogni settore, dalle risorse umane, all’assistenza sanitaria, alla moda, avrà sempre più bisogno di lavoratori qualificati in informatica, tant’è vero che una formazione non focalizzata sulle nuove tecnologie digitali porterà un deficit importante per tutti i giovani che in futuro saranno in cerca di un nuovo lavoro. Non è un caso, infatti, che molte start-up si stiano avventurando proprio su questo settore, da Raspberry Pi a Blackbullion passando per Knowledgemotion solo per citarne qualcuna, chi ha voglia di investire dovrà tenere d’occhio proprio le innovazioni nel campo dell’istruzione d’ora in poi. Una di queste, per esempio, si chiama “Udemy” ed è stata creata con la missione di democratizzare l’educazione offrendo in un mercato online la possibilità di creare e vendere le proprie conoscenze grazie alla formazione di classi di apprendimento che vanno dai 20 ai 100 dollari e che affrontano temi come la programmazione o l’uso di particolari software.

Tutto passa per il digitale e preparare adeguatamente i giovani a questo mondo è fondamentale per donare posti qualificati a persone che vogliono crescere e mettersi in gioco ma, oggi, i dati ci dicono, invece, che solo una piccola percentuale delle scuole offre classi di studio indirizzate verso l’informatica e la digitalizzazione (circa il 10% delle scuole della Gran Bretagna, chissà quante in quelle italiane, ma dubito che ce ne siano di più). Se questo non cambierà il prima possibile, donando fin dalle scuole quella formazione digitale ormai fondamentale per il futuro lavorativo, il divario tra gli studenti che hanno queste skills e quelli che invece non le hanno acquisite, sarà sempre più difficile da colmare. Oltre ad essere l’unico settore della tecnologia ad avere accesso diretto a scuole ed università, l’EdTech, a differenza degli alti e bassi dei mercati finanziari, risulta, quindi, oggi il settore più sicuro per tutti gli eventuali investitori, al riparo da molte delle pressioni del paesaggio geopolitico più ampio. L’EdTech è destinato a divenire il settore digitalizzato più grande e redditizio di sempre potendo offrire contenuti in tutto il mondo adattabili ai vari paesi ed istituzioni educative, bisognerà proprio tenerlo d’occhio.

Gianluca Cimini

]]>
Tue, 24 Jan 2017 19:47:42 +0000 http://www.gianlucacimini.it/mc/496/1/opportunita-di-investimento-2017-il-passaggio-sicuro-da-fintech-ad-edtech gianlucacimini2016@gmail.com (Gianluca Cimini)
Non solo BitCoin, il buon uso della Blockchain nelle catene di distribuzione - di Gianluca Cimini http://www.gianlucacimini.it/mc/495/1/non-solo-bitcoin-il-buon-uso-della-blockchain-nelle-catene-di-distribuzione---di-gianluca-cimini

Nata con l’auspicio di migliorare la visibilità e il controllo sulle merci e prodotti mentre venivano transitati da un punto A ad un punto B, la catena di distribuzione (anche detta supply chain in inglese) è stata fin da subito un successo e ha portato avanti una piccola rivoluzione.
La situazione, da quando ormai due secoli fa si è imposta nel mercato, è cambiata e quelle stesse regole del mercato non sono più attuabili a causa di una produzione aumentata a dismisura e a cicli di approvvigionamento che sono diventati sempre più frammentati, complessi e geograficamente agli antipodi. Per risolvere il problema di una filiera sempre più oscura e difficile da gestire, una nuova tecnologia emergente si appresta a portare, dicono, trasparenza ed efficienza ad un certo numero di diversi settori industriali.
La caratteristica principale delle catene di distribuzione è che possono estendersi per centinaia di stadi e decine di aree geografiche rendendo molto difficile a volte tracciare i singoli eventi o svolgere indagini approfondite su incidenti che possono accadere durante una delle fasi del trasporto, inoltre gli acquirenti finali non possiedono un modo sicuro e affidabile per valutare in maniera chiara il reale valore di un bene acquistato a causa di quella mancanza di trasparenza della catena di fornitura che ci riporta solo il prezzo finale del prodotto, ma non ci dà nessuna informazione precisa sui vari costi di produzione e trasporto dal punto iniziale al punto finale. Per non dimenticare quegli elementi legati alla distribuzione ancora più difficili da valutare come il danno ambientale che si viene a creare nella produzione di merci e prodotti, oppure tutte quelle attività illecite come la contraffazione, il lavoro forzato e le cattive condizioni nelle fabbriche, oppure la crescita di gruppi criminali legati alla gestione di particolari risorse primarie (come il caso del coltan utilizzato per telefoni cellulari e altri prodotti tecnologici).

La nuova tecnologia di cui parlavo si chiama “blockchain” e si presenta come un libro mastro della distribuzione capace di assicurare trasparenza e sicurezza grazie alla registrazione di tutte le operazioni di trasferimento su un registro delle operazioni che identificherebbe tutti i soggetti coinvolti e le informazioni aggiuntive sul prodotto come prezzo, data, luogo, qualità e stato del prodotto che potrebbero essere rilevanti per la gestione della catena di fornitura.
Un registro pubblico e decentralizzato, inoltre, che renderebbe impossibile sia la manipolazione dei dati a proprio vantaggio, sia detenere la proprietà singola del libro contabile. La cosiddetta “catena di blocchi” essendo una base di dati distribuita mantiene in modo continuo una lista crescente di record, i quali, facendo riferimento a record precedenti presenti nella lista stessa, resistono ad eventuali manomissioni.
Sfruttando la tecnologia peer-to-peer ognuno può prelevarlo dal web e diventare un nodo della stessa rete. Nata in stretto contatto con la “criptovaluta” virtuale Bitcoin, la tecnologia “blockchain” per sua natura garantisce un elevato livello di sicurezza e si presta, quindi, ad essere utilizzata in tutti gli ambiti in cui è necessaria una relazione tra più persone proprio perché ogni transazione viene sorvegliata da una rete di nodi che ne garantiscono la correttezza e ne possono mantenere l’anonimato.
Il sistema di “time stamping” decentralizzato, inoltre, non necessita di una sola ed unica risorsa centrale (come un server) ed impedisce che le singoli transazioni una volta effettuate possano essere cancellate o modificate. Tutti possono controllare la catena, ma nessuno la può possedere, in questo è la forza della “blockchain”. Il sistema migliore per garantire sicurezza, visibilità e resistenza nel tempo alle transazioni è semplicemente renderle pubbliche e concatenarle tra loro: più aumentano, inoltre, gli utilizzatori, più l’algoritmo di protezione si rafforza automaticamente.

Nel 2014 venture di tutto il mondo hanno investito circa mezzo miliardo di dollari in startup che applicavano la tecnologia Blockchain a diversi settori. L’interesse è altissimo e si sta spostando dai mercati finanziari, dove è maturato, al resto. C’è già chi scommette che questo sarà il nuovo boom del tech dei prossimi anni. L’interesse aumenta perché comporta un modo completamente nuovo di intendere le relazioni umani, gli scambi commerciali, la tutela del valore prodotto da ognuno. Tale tecnologia è attualmente in prova in molte grandi società: da “IBM”, per gli usi possibili nell’ambito dell’IoT (Internet of Things), a “Everledger” che si occupa di portare trasparenza nel difficile mercato di approvvigionamento di diamanti che da sempre contribuisce ad un commercio legato allo sfruttamento di persone e risorse prime e alimenta diversi scontri violenti specialmente in Africa. Capire come un bene viene prodotto aiuta a promuovere inoltre pratiche più responsabili sul modello di lavoro che tanti lavoratori sono costretti a vivere, aprendo un occhio sul fenomeno della schiavitù e dello sfruttamento di tanti paesi del terzo mondo. La tecnologia del blockchain ha, a mio avviso, proprio quel potenziale per trasformare l’intera catena di produzione e modificare il nostro modo di produrre e commercializzare e consumare i nostri prodotti. Attraverso trasparenza e tracciabilità, ogni prodotto avrà una propria identità nella catena di distribuzione e fornirà informazioni a riguardo facilmente accessibili da tutti con l’augurio che in questo modo anche le nostre economie possano diventare più sicure ed affidabili attraverso una tecnologia che offre una gamma di applicazioni tendenzialmente infinite.

Gianluca Cimini

]]>
Fri, 20 Jan 2017 19:01:38 +0000 http://www.gianlucacimini.it/mc/495/1/non-solo-bitcoin-il-buon-uso-della-blockchain-nelle-catene-di-distribuzione---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Il futuro dei Bot: molto dipende dallo loro diffusione ed interoperabilità - di Gianluca Cimini http://www.gianlucacimini.it/mc/494/1/il-futuro-dei-bot-molto-dipende-dallo-loro-diffusione-ed-interoperabilita---di-gianluca-cimini

Decretati da molti come il futuro del commercio e come una rivoluzione nei servizi di assistenza ai clienti, i bots (abbreviazione da “robots”) promettono grandi cose per gli anni a venire. Una ricerca di TechEmergence, che ha analizzato i cambiamenti e le innovazioni nel campo dell’Intelligenza Artificiale e machine learning nei prossimi anni ne è sicura: saranno le botchat le killer application del futuro. La rivoluzione è dietro l’angolo, specie da quando Facebook ha annunciato l’integrazione dei bot nella chat di “Messenger”, Siri, Alexa, Cortana, Tay e Google Assistant sono avvisati, quindi. Considerato che più di 2,5 miliardi di persone utilizzano almeno un’app per scambiarsi messaggi, trascorrendo molto del loro tempo sul cellulare più sulle app di messaggistica che sui social network, non mi è difficile pensare che sempre di più i bot integrati in tali servizi diventeranno lo strumento primario per mezzo del quale sarà possibile utilizzare ogni tipo di servizio. Il mercato tecnologico è uno scenario in continua evoluzione e rivoluzione, il mondo del marketing ha appreso con grande entusiasmo l’integrazione delle chat bot nei servizi di messaggistica dal momento che possiede un potenziale enorme per le aziende specie nel campo della “customer experience” dove le chatbot, paradossalmente, potrebbero diventare il “cuore” delle vendite online. Ad ogni modo avremo tempo per seguire il corso della storia e per scoprire i successi, o gli insuccessi, di questa nuova tecnologia ancora acerba ma dalle grandi potenzialità.

Sembra che ,come già il web e i cellulari hanno fatto, i servizi di messaggeria istantanea trasformeranno il modo in cui noi interagiamo con il mondo che abbiamo attorno. Affinché ciò avvenga ci vorrà , però , da parte della comunità di sviluppatori che si occupano della nascita di nuovi bot, l’impegno a creare prodotti adeguati ad essere funzionali su macchine e cellulari differenti offrendo gli stessi servizi su tutti i vari dispositivi utilizzati e non solo su quelli di marchi più famosi o più diffusi. Quello che può essere scontato oggi, infatti, non lo è stato in passato, e così, per esempio, navigando sul web era comune per gli utenti del browser “Netscape” essere bloccati da siti che invece erano stati ottimizzati solo per “Internet Explorer”. Allo stesso modo all’inizio della telefonia mobile non era possibile scambiarsi messaggi di testo tra operatori telefonici diversi, ogni cliente poteva interagire solo con gli amici del proprio network telefonico. Fortunatamente, due decadi dopo, queste storie possono essere raccontate con sorpresa , ma , a pensarci bene , non tutto è cambiato. Oggi, fine 2016, le barriere tra sistemi di comunicazione esistono ancora: puoi prenotare la tua cena con un determinato fastfood , ma solo tramite “Messenger”, puoi chattare con gli esperti di un negozio di moda , ma per farlo ti serve magari “Kik” o “HipChat” o “Telegram”. Ritorna lo spauracchio del servizio ottimizzato per una particolare app o per un ‘altra, così come lo era stato venti anni fa quando le lotte erano ancora su quale browser scegliere per navigare, “Explorer”, “Netscape” o chi per loro. In questo modo milioni di utenti di piattaforme di messaggistica aziendale si trovano impossibilitati ad interagire direttamente tra loro attraverso programmi simili, ed allo stesso modo centinaia di sviluppatori di bot aziendali hanno bisogno ogni volta di riscrivere le loro bot in maniera tale da raggiungere più pubblico possibile attraverso più piattaforme possibili. Il sogno di ogni sviluppatore è programmare una sola volta un prodotto che possa essere distribuito in tutto il mondo e che si possa adattare alle diverse piattaforme in maniera automatica o facilmente ottimizzata. E così i servizi di messaggistica istantanea si stanno aprendo grazie a specifiche API (acronimo di Application Programming Interface) che permettono di espandere le funzionalità di un programma dando la possibilità agli sviluppatori di interagire con la piattaforma principale e di offrire servizi aggiuntivi rispetto a quelli che di default la piattaforma già offre. Importanti aziende come Slack e Microsoft stanno discutendo da tempo sul tema di adottare standard comuni, il risultato di questo approccio potrebbe portare ad assottigliare, fino a far sparire, le differenze di interfaccia grafica e funzionalità riguardo uno stesso servizio utilizzato su piattaforme differenti. Il futuro dei bot passa quindi da un sistema di messaggistica più unificato, e ,se guardiamo alla storia , non è difficile notare come tutti i prodotti che sono sopravvissuti alla tecnologia siano sempre stati legati proprio alla loro capacità di tendere verso l’interoperabilità.

Gianluca Cimini

]]>
Mon, 16 Jan 2017 18:51:12 +0000 http://www.gianlucacimini.it/mc/494/1/il-futuro-dei-bot-molto-dipende-dallo-loro-diffusione-ed-interoperabilita---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Formula 1 2017: odio e amore sui motori ibridi di nuova generazione - di Gianluca Cimini http://www.gianlucacimini.it/mc/493/1/formula-1-2017-odio-e-amore-sui-motori-ibridi-di-nuova-generazione---di-gianluca-cimini

“Il problema non è la qualifica, è la gara, siamo lontani anni luce dal passo che si teneva nel 2009 o nel 2010, perché le macchine sono troppo pesanti, abbiamo a bordo una quantità assurda di carburante e le gomme si degradano in un attimo. Mi libererei subito dell’ibrido e tornerei ai motori convenzionali, stiamo cercando di risolvere problemi che nascono principalmente dall’introduzione in Formula 1 delle power unit” ha sottolineato Sebastian Vettel puntando il dito sulla tecnologia ibrida che, per il terzo anno consecutivo, ha mosso le autovetture di Formula 1.

Dello stesso avviso era stato anche Fernando Alonso esprimendosi su come fosse diminuito il divertimento alla guida di una vettura di Formula 1 con l’introduzione dei motori ibridi e di nuove regole di risparmio di gomme e benzina.

Introdotte con l’idea di poter ridurre i costi in F1 per ogni singola scuderia, le unità ibride, o meglio definite come power-unit, hanno portato un aumento vertiginoso dei costi costringendo i team minori ad andare in rosso con i conti (fino allo scorso anno ogni team cliente arrivava a pagare ben 20 milioni di euro annuali per ottenere la fornitura delle power-unit nel corso della stagione). Anche per questo il sistema dei cosiddetti “token” che era stato creato per tenere sotto controllo i costi, ma che non ha funzionato nella realtà dei fatti , sarà eliminato nel nuovo regolamento FIA 2017.

L’adozione di motori ibridi di nuova generazione rappresenta comunque, a mio avviso, una svolta epocale per la Formula 1: sia per il ritorno ad una preponderanza della parte meccanica nella prestazione a discapito di quella aerodinamica, sia per aver sancito la svolta “ecologica” della massima competizione motoristica internazionale con l’affiancamento di un’unità elettrica al classico motore termico. Le radicali modifiche apportate alle autovetture nel 2014, tra cambiamenti estetici e meccanici, hanno costretto ingegneri e meccanici agli straordinari ed al massimo degli sforzi, specialmente sul fronte dei motori. Nato con un occhio all’ecologia e con l’obiettivo primario dell’efficienza, cercando di non tralasciare cavalli e coppia, il cosiddetto Power Unit, ossia l’unità motrice della vettura, è costituito da un V6 turbo endotermico (1,6 litri, con frazionamento massimo 6 cilindri e il vincolo di un'unica turbina) e da due motori elettrici, uno azionato dall’energia cinetica raccolta in frenata e l’altro dal calore del turbo. Il V6 sviluppa circa 600 cavalli, con l’azione dei recuperatori di energia potrebbe, però, anche superare i 750 cavalli dei V8 aspirati. Passando dai 2400cc del 2013 ai 1600cc nel 2014 il piccolo motore ha introdotto anche la turbina che, fungendo da silenziatore nel raccordo tra scarico e collettori, ha sensibilmente ridotto il rumore delle vetture e mostrato un calo di prestazioni, seppur minimo. ERS, Energy Recovery System, è il nome che prendono le due unità che compongono il sistema elettrico di ausilio al motore termico, ed è formato a sua volta da: MGU-K ossia il motore-generatore da 164 cv preposto al recupero dell'energia cinetica eccedente dalle ruote motrici, e da MGU-H quello da 120 cv preposto al recupero dell'energia termica dai gas di scarico del turbo. L’energia recuperata da MGU-K e MGU-H viene poi accumulata in un pacco batterie comune ed utilizzata, in maniera autonoma, dall’elettronica della vettura, per un’erogazione della coppia più lineare, a tutto vantaggio dell'efficienza termodinamica, e consumi minori (dal momento che le nuove power unit dovranno essere in grado di concludere un GP con soli 100 kg di benzina, ossia un valore particolarmente basso per un motore di F1 con consumi ridotti di circa il 40% in meno rispetto ai vecchi V8 da 2,4 litri). Fino al 2013 i classici propulsori di F1 avevano un’efficienza di circa il 29-30%, i nuovi ibridi turbo-ibridi in meno di due anni hanno raggiunto un’efficienza vicina al 50%, un risultato incredibile, quindi, per un motore che è un piccolo capolavoro di tecnologia ma che, di contro, come molti tra piloti ed addetti ai lavori hanno notato, porta costi alti, un alto livello di complessità nella realizzazione e un sound non ottimale.

Accantonato il ritorno paventato da Bernie Ecclestone agli otto cilindri aspirati, il motore di Formula 1 del 2017 è confermato che sarà derivato dall’attuale V6 Turbo ibrido. Con le nuove regole quattro motori saranno concessi per ciascun pilota nel corso della stagione, non dovranno, inoltre, sottostare a uno sviluppo limitato dai gettoni da giocare ma ci sarà la libertà di realizzare quattro unità diverse una dall’altra, permettendo sviluppi significativi anche nel corso del campionato. Quello che mi aspetto è un ulteriore incremento dell’efficienza dei sei cilindri che inseguono il raggiungimento della tecnologia HCCI (motori benzina che vengono usati come dei diesel facendo a meno della candela, visto che l’accensione avverrebbe per compressione del carburante). Per rompere la supremazia ininterrotta della Mercedes dacché è nata la Formula ibrida nel 2014, la Ferrari quest’anno punterà specialmente sull’efficienza della combustione per incrementare le prestazioni e ridurre i consumi. Incrementando la pressione di sovralimentazione del turbo quest’anno nella casa del Cavallino si vuole arrivare a raggiungere picchi di oltre 5 bar rispetto alla precedente configurazione che non superava i 3,5 bar. Elemento principale della ricerca, dicono gli esperti, sarà il motore termico con una modifica della camera di combustione che porterà un significativo aumento della pressione sfruttando magari un iniettore con una punta tanto fine da riuscire a stare all’interno del cappuccio della candela. Obiettivo ultimo, quindi, migliorare l’efficienza del motore sfruttando una tecnologia con le multi-iniettate in grado di garantire un incremento delle prestazioni tale da annullare il divario con la rivale Mercedes. Condivido il pensiero del numero uno Mercedes Toto Wolff su quella che sarà la Formula 1 che verrà, esprimendo entusiasmo per quello che fra qualche mese, dopo tante voci a riguardo, potremo rivedere nuovamente sull’asfalto: “Il futuro della Formula 1 è nei motori ibridi, non possiamo sottrarci allo sviluppo. Un motore ibrido è più leggero, veloce, efficiente e potente rispetto a uno tradizionale. Se miglioriamo alcuni dettagli, nel 2017 potremo avere le monoposto più veloci di sempre”.

Gianluca Cimini

]]>
Sun, 15 Jan 2017 12:02:13 +0000 http://www.gianlucacimini.it/mc/493/1/formula-1-2017-odio-e-amore-sui-motori-ibridi-di-nuova-generazione---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Dal Selfie alla Panoramica http://www.gianlucacimini.it/mc/492/1/dal-selfie-alla-panoramica-

L'Advisory Board per guardare le cose in modo diverso 

Guardare il mondo con occhi diversi, nuovi. Più la tecnologia va avanti più è necessaria la specializzazione, per governarla e sfruttarla. Ma la specializzazione contiene un'insidia, se induce a riprodurre modelli complessi e acquisiti, finisce con il soffocare l'innovazione. La sfida consiste nel promuovere l'innovazione senza rinunciare alla specializzazione. Mettere l'una al servizio dell'altra, farle vivere nello stesso mondo, farle combattere affiancate e non fra loro. Da questo nasce la mia idea di dotare BT Italia di un Advisory Board, che è, però, un punto di approdo, non di partenza. Perché quello sforzo lo abbiamo fatto prima al nostro interno, con risultati eccellenti. Guardare il mondo con occhi diversi significa anche accorgersi di cose che qualsiasi specialista considera ovvie, scontate, e che pure diventano assai più preziose, se guardate da un diverso punto di vista: noi lavoriamo nelle telecomunicazioni, siamo la branch nazionale di una multinazionale inglese, siamo, assieme ai nostri concorrenti, la prova vivente che avere pensato all'Europa come a una Unione, dotata di regole comuni e creatrice di un mercato comune, è una scommessa vincente. E' normale che l'attenzione collettiva si concentri sui problemi e sulle criticità, ma se non fosse anche uno straordinario successo il sogno europeo sarebbe già stato archiviato. Siamo la branch più importante, ci occupiamo del mercato nazionale che per BT è il più rilevante, fuori dai confini UK e abbiamo portato questa consapevolezza nel nostro lavoro di ogni giorno. Abbiamo visto noi stessi e la nostra attività con occhi diversi. I numeri ne sono solo il riflesso. In un mercato delle telecomunicazioni in caduta libera (-10% anno su anno) e con uno stato dell'economia italiana certamente non favorevole (PIL -0,3% nel 2014 e tre anni consecutivi di recessione), BT Italia è cresciuta ...

Aprile 2015 - 30 Supplemento a Harvard Business Review, di Gianluca Cimini

 

]]>
Wed, 11 Jan 2017 17:12:18 +0000 http://www.gianlucacimini.it/mc/492/1/dal-selfie-alla-panoramica- gianlucacimini2016@gmail.com (Gianluca Cimini)
Bot Revolution: le chatbot al centro del dialogo uomo-macchina - di Gianluca Cimini http://www.gianlucacimini.it/mc/491/1/bot-revolution-le-chatbot-al-centro-del-dialogo-uomo-macchina---di-gianluca-cimini

Il mondo delle chatbot è in fermento. Molte start-up e sviluppatori autonomi si sono lanciati, fin da quando ad Aprile Facebook ha lanciato le chatbot all’interno di “Messenger”, alla conquista di questo nuovo mondo. Per chi non li conoscesse ancora, le chatbot (“bot” è l’abbreviazione di “robot”) sono dei programmi che simulano una conversazione tra robot ed essere umano, offrendo un servizio, caratterizzato da regole, schemi e (a volte) intelligenza artificiale, che permette agli utenti di interagire via chat senza l’intervento umano cercando di riproporre un dialogo il più possibile vicino alla realtà. In pratica sono programmi informatici che “parlano” come gli esseri umani: Siri e Cortana, rispettivamente gli assistenti vocali di Apple e Microsoft, ne sono già degli ottimi esempi. È vero che il loro sviluppo è ancora agli inizi e che la loro capacità di colloquiare in modo lineare e congruo è limitata, ma c’è molta hype per questo tipo di programmi che possono riguardare una serie infinita di argomenti, impieghi e applicazioni, da quelli più funzionali a quelli per mero divertimento ed è possibile trovarli quasi in ogni servizio di chat (Facebook Messenger, Slack, Telegram, Sms, etc.). Venuti alla ribalta specialmente dopo l’interesse del Ceo di Facebook Zuckerberg si è aperta immediatamente la discussione su cosa siano effettivamente e a cosa servano i bot e le chatbot. La loro origine non è per nulla recente, però, anzi ne parlava già negli anni cinquanta il geniale Alan Turing, e un esempio forse ancora ricordato da chi come me già usava il pc negli anni novanta è quello di “Clippy” la simpatica, quanto inutile, graffetta di Microsoft Office che interagiva con l’utente e dava suggerimenti. Ecco “Clippy” era un bot. E di bot nel web ne sono girati sempre tanti, dopotutto una ricerca pubblicata da “Incapsula” nel 2013 ci riferiva che già allora il traffico Internet indirizzato verso il suo network di 20 mila siti web fosse da attribuire per il 61% ai bot software contro il 38,5% di quello creato da visitatori umani. Grazie alla sinergia con le app di messaggistica più diffuse oggi i bot potrebbero subire un’evoluzione estremamente interessante, proprio per questo, mercato ed aziende hanno cominciato ad interessarsi sempre più a questa realtà emergente. La “bot revolution” è ancora nella fase iniziale, ma molti ritengono che negli anni a venire si affermerà pienamente. Abbiamo vissuto l’era dei siti, poi delle app e ora potrebbe arrivare quella dei chatbot. L’idea, secondo Nicola Mattina, fondatore di Stamplay (una piattaforma in grado di aiutare gli sviluppatori a sviluppare applicazioni integrando servizi esistenti) è che “le cose che una volta si mettevano dentro le app, oggi vanno inserite all’interno delle applicazioni che il cliente usa. […] Stiamo assistendo insomma a uno spostamento di paradigma. Potrebbe ridursi drasticamente il numero di app e aumentare la produzione di chatbot”. I dati ci dicono, infatti, che l’uso dell’app è in declino, tuttavia il 75% degli utenti di smartphone passa del tempo almeno su una fra le app di messaggistica, che raccolgono ormai un numero di utenti attivi superiore rispetto agli stessi social network. E qui entrano in gioco i bot per veicolare servizi, informazioni, prodotti, giochi, o raccogliere dati. Del resto, lo aveva detto mesi fa anche l’ad di Microsoft, Satya Nadella: “I bot sono le nuove app”. La versatilità dei bot integrati in un servizio di instant messaging permette di rendere la vita più facile a sviluppatori e anche consumatori che non si troveranno a dover scaricare un’app specifica (ed abilitare le notifiche push che non tutti fanno), ma tutto sarà già disponibile all’interno del programma principale: consideriamo che il solo Messenger di Facebook ha un pubblico potenziale di circa 900 milioni di persone consolidati nei Paesi più sviluppati dove sono più radicati, inoltre, i servizi di e-commerce. Senza uscire da Messenger, senza alzare il telefono o scrivere email, ma digitando con un linguaggio colloquiale, come se stessimo parlando con un amico, potremo in futuro avere le risposte che cerchiamo, solo che a risponderci non sarà un essere umano ma un computer. Robot, software programmati per interpretare le nostre domande o anticipare le nostre esigenze. “Il beneficio è doppio. Da una parte si ha un feedback in tempo reale alle proprie richieste, senza le attese di altri canali. In più, diminuisce la possibilità di perdere un’offerta conveniente o qualcosa di rilevante, di interessante” ha affermato Stan Chudnovsky, responsabile di “Messenger”, durante la F8 di San Francisco, la conferenza dedicata agli sviluppatori di Facebook.

Già oggi ogni attività commerciale con una presenza sui social e su app di messaggistica può utilizzare dei bot per avere conversazioni bidirezionali con gli utenti, per quanto limitate. E per raccogliere i loro dati, sfruttando proprio la naturalezza di interazioni con un tocco umano. Qualcuno paragona i chatbot attuali ai primi siti web: sono ancora molto elementari, ma hanno enormi potenzialità, anche inesplorate. Gli impieghi possibili dei chatbot sono innumerevoli: da sistemi di CRM avanzati a sistemi di informazione su novità, offerte, promozioni; ai servizi di intrattenimento o di content discovery. Ma ciò che conta davvero è che, qualunque sia l’ambito, un chatbot è sempre presente, 24 ore su 24, 7 giorni su 7. E può conoscere i gusti, le preferenze, gli interessi, l’età, la lingua e molto altro di chi interagisce con esso, permettendo di offrire la soluzione o risposta giusta al momento giusto. Proprio perché siamo ancora agli inizi, anche le grandi aziende come Microsoft hanno subito dei piccoli fallimenti: “Tay” che sarebbe dovuta diventare la chatbot principale dell’azienda, la voce amica con cui dialogare, che diventa più intelligente con il passare del tempo si è rivelata, invece, una perfetta razzista ed è stata bloccata dopo aver cominciato a cinguettare frasi antisemite ed incitanti all’odio. Tra i chatbot che invece funzionano meglio ed offrono servizi utili e funzionali mi hanno particolarmente colpito: “MissingKidsBot” un servizio innovativo che invia alert in tempo reale ed aiuta nella ricerca di bambini dispersi; “Smokey” che fornisce i dati relativi alla qualità dell’aria della città in cui ci troviamo e risulta utile specialmente per corridori, malati di asma o donne incinte; società non profit come “Charity: Water” utilizzano Messenger per accettare donazioni che vanno totalmente indirizzate verso progetti per portare l’acqua potabile a quei 663 milioni di persone al mondo che ogni giorno non possono accedere facilmente all’acqua potabile; oppure la chatbot “Do not Pay” che fornisce un servizio innovativo di assistenza e consulenza gratuita agli abitanti del Regno Unito senza fissa dimora; infine “Gyant” che offre un servizio di assistenza medica in grado di ascoltare i tuoi sintomi e guidarti verso una possibile diagnosi. Questi sono solo alcuni esempi di come pochi chatbots possono portare cambiamenti positivi agli utenti. Siamo nell’era in cui scambiare quattro chiacchiere con un robot ci aiuterà a ridurre la complessità e la sovrabbondanza dei contenuti da cui siamo bombardati ogni giorno, aiutandoci a filtrarli e a renderli disponibili solo quando noi lo vogliamo e solo nei modi che già conosciamo a meraviglia.

Gianluca Cimini

]]>
Sat, 7 Jan 2017 18:12:22 +0000 http://www.gianlucacimini.it/mc/491/1/bot-revolution-le-chatbot-al-centro-del-dialogo-uomo-macchina---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Il lavoro nell’era dei robot: come cambierà il futuro grazie all’automazione - di Gianluca Cimini http://www.gianlucacimini.it/mc/490/1/il-lavoro-nellera-dei-robot-come-cambiera-il-futuro-grazie-allautomazione---di-gianluca-cimini

La storia ci insegna molto spesso a trovare risposte anche per le domande che ci poniamo per il futuro, una di queste domande è legata all’impatto dell’automazione e della tecnologia sui posti di lavoro e sulla paura che tale impatto possa portare alla disoccupazione di tante persone il cui lavoro verrebbe sostituito da quello delle macchine. Piuttosto che celebrare l’innovazione molti articoli su blog tematici e giornali sollevano dubbi e paure sulla perdita di posti di lavoro che si prevede del 7% in America entro il 2025. Ciò che non si accenna , però , è che, a mio avviso, queste tecnologie importanti porteranno sì alla riduzione di alcuni posti di lavoro a bassa qualificazione, stimoleranno, però, la crescita di molte nuove attività aprendo la strada a categorie lavorative completamente nuove. Come confermano diversi studi svolti in Inghilterra e Galles, dal 1871, la tecnologia ha creato molti più posti di lavoro di quanti non ne abbia cancellati , dal momento che le macchine hanno sostituito gli uomini nei compiti più ripetitivi e faticosi , ma il ruolo dell’uomo non per questo è stato eliminato totalmente. Altri dati, sviluppati nel 2015 dal “London’s Center for Economic Research”, ci dicono che l’uso dei robot porta ad una maggiore produttività e a salari più alti senza però influire in maniera negativa sull’occupazione poiché i robot , normalmente,  non sostituiscono per intero un posto di lavoro umano ma eseguono soltanto alcuni compiti, più ripetitivi o pericolosi, che gli uomini svolgono ora. Anche davanti alla paura di significative perdite di lavoro, sempre se così sarà, in un’ economia globale come la nostra, sempre più puntata all’innovazione, è impossibile e non auspicabile immaginare un futuro dove i robot e la tecnologia non abbiano un posto importante nella nostra vita: sviluppare prodotti innovativi, quindi, per fra crescere quell’economia e non rallentarla è l’unica strada da intraprendere , a mio avviso. Le economie crescono quando nascono prodotti e servizi capaci di rendere migliore la vita di tutti i giorni, sia che si tratti di lavoro, sia di salute sia di svago. La storia ci insegna ancora una volta che la tecnologia elimina alcuni posti di lavoro e ne crea altri: le macchine durante la rivoluzione industriale hanno portato molti lavori manuali fuori dal mercato per offrire poi a molti lavoratori posti di lavoro più stabili e paghe migliori. La migrazione verso nuovi lavori, nella maggior parte dei casi, ha visto lo standard di vita migliorare con il tempo. Il progresso tecnologico ha già modificato in molti campi la percezione della vita e del lavoro: i computer sono diventati la grande speranza per il futuro.

Fondamentale è ovviamente prepararsi con la dovuta formazione e con una dose di creatività e coraggio alle nuove sfide che il futuro tecnologico ci porterà. La vera sfida è come verrà affrontata questa transizione: i lavoratori meno qualificati inevitabilmente perderanno terreno in favore di individui più istruiti e pronti a cimentarsi con nuove opportunità. La legge della giungla, economica in questo caso, ci dice che bisogna specializzarsi nel campo tecnologico per avere più possibilità di trovare lavoro nel futuro che ci aspetta. Molti sociologi esprimono pareri discordanti sull’argomento: da chi dice che non c’è nulla di cui preoccuparsi perché i robot non causeranno disoccupazione, a chi prevede già l’alto numero di posti di lavoro che verranno persi con l’avvento massiccio della tecnologia. Secondo uno studio sviluppato dal “Pew Research Center” si evince che gli americani già da ora accettino la possibilità che la tecnologia possa distruggere posti di lavoro futuri e questo anche perché vi è la opinione diffusa che nulla cambierà in modo significativo nei prossimi 50 anni. Due terzi degli Americani intervistati si aspettano, infatti, che robot e computer eseguiranno la maggior parte del lavoro che ora viene svolto dagli umani (il 65% circa degli intervistati con il 15% di questi che è totalmente sicuro di questo cambiamento futuro), ma molti lavoratori (l’80%) si aspettano comunque che il loro lavoro esisterà esattamente nei prossimi 50 anni mentre un 18% è sicuro che il proprio lavoro verrà completamente automatizzato o si modificherà completamente nel tempo. I Robot , quindi, preoccupano la popolazione, ma in minima parte, molto meno di una cattiva gestione della forza manuale da parte dei datori di lavoro, o del calo dei diritti dei lavoratori o delle preoccupazioni legate all’apprendimento di nuove competenze tecniche per il loro ruolo attuale. La maggior parte degli americani risulta , quindi, abbastanza ottimista verso le future prospettive di lavoro, il tempo ci dirà se tale ottimismo si tramuterà in realtà.

In passato abbiamo già visto l’avvento delle macchine nel tessuto lavorativo e sociale globale, ma mai prima d’ora abbiamo vissuto in un’epoca di rapida crescita esponenziale di tale capacità tecnologiche: il futuro si avvicina con una velocità impressionante. Quasi ogni posto di lavoro, probabilmente anche il nostro, corre il rischio di diventare obsoleto con l’avvento di nuovi software, nel frattempo la riqualificazione del lavoratore è lenta, e anche se la tecnologia porta più posti di lavoro di quanti ne distrugga, non c’è alcuna garanzia che quei lavori saranno disponibili per tutta la popolazione in tempi ragionevoli. La sfida, quindi , è non lasciare indietro nessuno, includendo dove possibile anche i membri della società che potrebbero essere lasciati fuori dal progresso tecnologico. Non solo, quindi, istruzione e formazione, ma anche macchine facili da usare grazie ad un design intuitivo e comandi semplici da utilizzare in maniera tale da poter donare agli esseri umani posti di lavoro più appaganti come operatori di queste macchine. La modifica dello status quo porta sempre con sé un pò di timore su come cambieranno le cose in futuro, è innata nelle persone la paura al cambiamento, ancora di più quando si tratta di tecnologia, ma la storia ci ha dimostrato il contrario. Vedremo progressi sociali e una crescita dell’economia generale, oltre a lavori più sicuri e innovativi e tutta questa rivoluzione partirà inevitabilmente dai robot.

Gianluca Cimini

]]>
Thu, 5 Jan 2017 18:07:15 +0000 http://www.gianlucacimini.it/mc/490/1/il-lavoro-nellera-dei-robot-come-cambiera-il-futuro-grazie-allautomazione---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Marketing ed Entertainment: Realtà virtuale ed aumentata in competizione - di Gianluca Cimini http://www.gianlucacimini.it/mc/489/1/marketing-ed-entertainment-realta-virtuale-ed-aumentata-in-competizione---di-gianluca-cimini

A prescindere da quello che l’industria tecnologica ci darà in futuro, una e una sola cosa è certa: il nostro domani sarà virtuale, o almeno “aumentato”. La quotidianità sarà sempre più pervasa da contenuti alternativi o integrati di qualsiasi tipo, sia che si tratti di un mondo a parte come nel caso della realtà virtuale (VR), sia che si tratti di qualcosa sovrapposto al reale come nel caso del realtà aumentata (AR). Molte nuove tecnologie sono nate e sono passate dall’ambito ludico prima di arrivare ad altri campi ed altre funzioni, più di una volta infatti i videogiochi, così come film e letteratura, hanno anticipato il futuro. AR e VR sono, quindi, due realtà vicine, connesse e con tecnologie alla base molto simili anche se hanno un principio di fondo differente: la prima mantiene il collegamento con l’esterno, la seconda è immersiva, passa cioè da visori che lasciano fuori il mondo che ci circonda. In comune rimane il fatto, estremamente affascinante, di poter alterare la percezione del mondo che ci circonda sia esso reale o virtuale. Indossare un visore VR sugli occhi ci renderà “ciechi” al mondo reale, ma espanderà i nostri sensi con nuove esperienze create ad hoc. Usufruire di un dispositivo AR dopotutto ci lascerà nella nostra realtà, non ci porterà in altri posti, ma ci offrirà di più. Mentre la VR è più immersiva, la AR dona più libertà all’utente e più possibilità agli esperti di marketing poiché non c’è bisogno di un casco virtuale per usufruirne. Alcuni famosi brand hanno già intercettato le potenzialità di queste tecnologie per rendere l’esperienza dei consumatori con il brand il più immersiva e coinvolgente possibile a tal punto che mi viene da chiedermi se realtà virtuale e realtà aumentata potranno rappresentare in parte il futuro del marketing, molte aziende direbbero di sì. Abbiamo già esempi di aziende che utilizzano queste tecnologie: la catena alberghiera Marriott offre al pubblico la possibilità di visitare posti esotici attraverso una luna di miele virtuale; l’automobilistica Volvo permette di vivere un test drive dei propri modelli di auto direttamente seduti sul proprio divano; l’Ikea offre un’app di realtà aumentata che consente di arredare virtualmente la propria casa con i mobili del colosso svedese; la catena Starbucks ha creato delle speciali cup per eventi che si animano virtualmente una volta che vengono inquadrati con il proprio smartphone. Si dimostrano, quindi, un ottimo strumento di marketing per aumentare il coinvolgimento dei consumatori e far vivere loro i valori del brand in questione attraverso la fruizione di un ambiente in grado di riflettere la vision dell’azienda.

Tecnologie simili che verranno sfruttate in ambiti differenti e la battaglia su chi prevarrà tra i due è ancora totalmente aperta. C’è già da ora una competizione in corso tra realtà aumentata, virtuale e mista. Sondaggi ci dicono che la gente spende quasi 11 ore al giorno utilizzando mezzi elettronici, in primis attraverso la tv seguita, ed in crescita sui tempi di utilizzo, da smartphone e tablet, sia in forma passiva sia attiva, un numero altissimo che ci pone la domanda: come mai questo mondo ci affascina così tanto? Considerando, inoltre, che le ore rimanenti della giornata le dedichiamo al riposo e a lavorare, in un panorama così variegato la crescita del mercato AR/VR sembra tendere ad accaparrarsi una fetta del tempo che dedichiamo al nostro lavoro, magari cambiandolo radicalmente o aumentandolo nella sua esecuzione. In questa analisi sembrano sfuggire i momenti dedicati al cibo, allo sport, alla famiglia, alla socializzazione, ai viaggi ed a tutte le altre attività quotidiane, ed è in questo momento che entra in scena uno dei maggiori motori del successo dei dispositivi mobili ossia la pluralità. Con questo termine intendo riferirmi a tutto ciò che la gente riesce a fare contemporaneamente, la maggior parte delle persone, infatti, utilizza gli smartphone come un secondo schermo mentre svolge altre attività, come, per esempio, guardare la televisione. Tutti utilizziamo un cellulare di ultima generazione: probabilmente è la prima cosa che controlliamo appena svegli, e viene utilizzato anche durante il viaggio in bus, il pranzo o un incontro tra amici. In questo mercato la realtà virtuale, proprio per la sua immersione totale, dovrà fare i conti con il suo competitor principale, ossia la realtà aumentata, senza poter utilizzare il beneficio della pluralità. Questa è la sfida più difficile ma intrigante per il VR, riuscire a cannibalizzare, in termini di tempo, l’attenzione del fruitore di media rispetto alle 11 ore dedicate all’utilizzo dei mezzi elettronici. La tecnologia AR invece sta crescendo anche se ancora non è diventata di massa, e potrà sfruttare un vantaggio competitivo molto importante, probabilmente ancora maggiore di quello che hanno avuto gli smartphone e tablet, parlo sempre della pluralità: nessun utilizzo di schermi limitati fisicamente, nessuno sguardo da abbassare per accedere al cellulare, nessun limite a ciò che possiamo vedere.

Un mercato che ancora deve nascere ma che, secondo l’Augmented/Virtual Reality Report 2015 stilato da Digi-Capital, avrà un giro di affari nel 2020 di oltre 150 miliardi di dollari, in forte crescita considerato che la previsione per il 2016 non superava i 10 miliardi (si chiuderà infatti con ricavi attesi per circa 5,2 miliardi): a guidare questo nuovo mercato secondo Tim Merel, direttore amministrativo di Digi-Capital, sarà soprattutto la realtà aumentata (120 miliardi di dollari) poiché si presta ad applicazioni più ampie e pervasive rispetto alla realtà virtuale (30 miliardi) destinata invece ad essere utilizzata in casa per la fruizione di videogiochi o film. Dalla logistica all’industria, dalla sanità alla comunicazione, dal marketing alle vendite, fino alla formazione aziendale: ogni processo diventerà più istintivo e veloce grazie alla nuova interazione uomo-macchina resa possibile dalle tecnologie di realtà virtuale e realtà aumentata. Ma, dal momento che ancora nessuna azienda possiede una posizione dominante su questo ambito di competizione, la sfida è ancora tutta da giocare e le regole vengono cambiate e scritte in questo momento. Staremo a vedere.

]]>
Mon, 2 Jan 2017 11:03:43 +0000 http://www.gianlucacimini.it/mc/489/1/marketing-ed-entertainment-realta-virtuale-ed-aumentata-in-competizione---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Picasso’s deep despair: the Blue Period’s paintings - by Gianluca Cimini http://www.gianlucacimini.it/mc/488/1/picasso-s-deep-despair-the-blue-period-s-paintings---by-gianluca-cimini

I'm very passionate about art. Last week, while I was reading a magazine, I read an article on Pablo Picasso. It was printed on a blue page and immediately it reminded me of the so-called “Picasso’s Blue Period”, somehow melancholic but so interestingly retrospective.

On the night of February 17, 1901, in the back room of a Paris wine shop, Picasso’s friend Charles Casagemas shot himself. Picasso was stunned by this suicide and sank in a deep despair. Although he was dogged by poverty and failure, he continued to work.

However, the paintings reflected his mood. They were all characterised by melancholic, cold tones, predominantly blue. More specifically, these paintings showed Picasso’s preference for the destitute, the blind and the lame. In other words, the outcasts of the then Paris society whose harsh he completely shared. Thanks to the mood after his friend’s suicide and the specific features of the society, Picasso created a unique, evocative style, which is known as “Picasso’s Blue Period”.

Tragedy and provocative allegory are mixed in some of Picasso’s Blue Period Paintings. This is epitomised in La Vie” (1903), commemorating the burial of his friend Casagemas. Casagemas’ body lies mourned on earth while his spirit rides a white horse and moves through a sky peopled by lush nudes. In the painting, above, there is an enigmatic picture. It contains two small pictures of nudes between the large standing figures. Apparently, it is about love, such as mother love, sexual love, platonic love, self-love and maybe, and more specifically, about the unhappiness of love. The whole picture is painted in monochrome, heralding dozens of such moody, deep-toned pictures.

 The Absinthe Drinker” (1902) is another epitome of Picasso’s Blue Period, along with “The Old Guitarist” (1903). The painting “The Absinthe Drinker” is not a portrait of an individual – as it could be easily guessed – but it is rather an abstract image of loneliness and despair. It is executed almost entirely in one colour, i.e. the blue tinged with cool green. A choice that emphasises the dejected pose.

“The Old Guitarist” shows that Picasso learnt to draw the human figure with an extraordinary precision. However, during his Blue Period, Picasso decided to distort the human figure in order to convey the moral and physical decay of his characters. In “The Old Guitarist”, this distortion is very clear. Picasso drew elongated limbs and fingers, painted bony, a fleshless body and a stylized, sexless profile. It has been noticed that some of these distortions, with particular reference to unusual stretching of hands and arms, were inspired by the paintings of El Greco, with whom Picasso met both in Madrid and in Toledo.

Picasso’s Blue Period was followed by the so-called “Rose Period”. In 1904, the artist’s life changed and, consequently, his art changed too. He fell in love for his first time and, as his mood brightened, he decided to adopt a “warmer palette”, moving from blue, cold tones to delicate roseate tones. The paintings grouped under the umbrella term “Rose Period” are mainly characterised by circus performers and their families as subjects, gentle happiness and emotion. 

Gianluca Cimini

]]>
Thu, 29 Dec 2016 16:52:43 +0000 http://www.gianlucacimini.it/mc/488/1/picasso-s-deep-despair-the-blue-period-s-paintings---by-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Migrant inflows and economic implications - by Gianluca Cimini http://www.gianlucacimini.it/mc/487/1/migrant-inflows-and-economic-implications---by-gianluca-cimini

Over the last year, Europe has been facing an unprecedented and challenging increase in the number of migrants' arrivals. These influxes are inevitably characterised by economic implications. The short-term impact on growth from additional public spending could be sometimes moderate, although more remarkable for some countries. However, in the long-term, it is likely to put considerable strain on public authorities in several Member States. The rise in public spending could have a negative impact on the GDP, spreading concern and anger among the public opinion, which has been deeply affected by the latest economic and financial downturn.  Given this scenario, estimates suggest that there is the need to turn a perceived threat for economy – i.e. refugee inflows – into a macroeconomic opportunity through a comprehensive integration policy.

When looking at the economic impact of refugee inflows, in a short term perspective, it is bound to differ across countries and it is likely to have slight economic implications. EU Member States are differently affected by arrivals owing to the following variables: differences in the size of inflows; whether a migrant transits or stays; whether he/she is granted protection status or is rejected; individual’s profile, along with the host country’s economic structure and capacity to integrate those who will be granted protection. Budgetary implications could be moderate and affordable for Member States as the European Commission has declared to be willing to embed the so-called ‘unforeseen events’ provision in the Stability and Growth Pact (SGP) to face net extra costs stemming directly from the refugee crisis management. However, in any case, in the long run things worsen. In a long term perspective, in fact, experts foresee an increasing public spending coming, for instance, from rescue operations, border protection, and registration of asylum seekers. Additional costs for the provision of food, health care and shelter are considered for transit countries, while extra expenditure for social housing, training, education are faced by destination countries, which could lead to a fall in the range of 0.1-0.6 % of GDP in the long run.

Based on the information available, around 70 % of asylum seekers throughout Europe are of working age between 18 and 64 years old. In a continent characterised by demographic challenges and ageing regions, a comprehensive integration policy could transformed a perceived threat into an economic opportunity. If well integrated, migrants can contribute to greater flexibility in the labour market and enhanced fiscal sustainability. A research carried out in the United States show that migrants with specific skills are more responsive across States. Hence, they can strengthen cross-border labour mobility within the European Union, thus coping with labour shortages and contributing to labour-market efficiency. A facilitated employability is then required, since it is essential for migrants to get a regular job and for the country which will host well integrated and legally-residing, third-country nationals, whose employment will give a positive contribution to national growth and public finances in the long term.

The extent to which migrants' contribution will positively affect both greater flexibility in the labour market and enhanced fiscal sustainability will depend on the effectiveness of the integration policy measures and the political intention to turn an perceived threat into a once-in-a-lifetime opportunity.  

Gianluca Cimini

]]>
Tue, 27 Dec 2016 17:11:37 +0000 http://www.gianlucacimini.it/mc/487/1/migrant-inflows-and-economic-implications---by-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Consigli per l’uso: come entrare nel fantastico mondo dei FabLab - di Gianluca Cimini http://www.gianlucacimini.it/mc/486/1/consigli-per-l-uso-come-entrare-nel-fantastico-mondo-dei-fablab---di-gianluca-cimini

Entrare a far parte di una community in continua espansione, come quella legata al mondo dell’artigianato digitale, può essere un’esperienza divertente, ma anche frustrante, se non si conosce il processo di creazione di un FabLab e se non si ha a disposizione un gruppo di persone che, oltre ad essere preparate sull’open hardware siano, inoltre, pronte ad intraprendere questa avventura e tutto quello che ne consegue. Un FabLab è un posto per giocare, creare, imparare ed inventare e si pone come una piattaforma per apprendimento ed innovazione nel locale, garantendo, però,  una rete globale e connessa di studenti, educatori e ricercatori pronti a condividere scoperte e conoscenze attraverso internet in ogni momento della giornata grazie ai tanti forum e siti che ormai trattano l’argomento. Dopotutto i makers di tutto il mondo sono persone che provano piacere nel costruire oggetti con le proprie mani, con la propria inventiva, tecnica ed abilità, fanno quello che gli artigiani fanno con strumenti manuali, utilizzando, però, strumenti digitali. I FabLab, infatti, in quanto piccole officine in grado di offrire servizi personalizzati di fabbricazione digitale, portano alla democratizzazione i sistemi di produzione innovativa permettendo di creare prototipi e nuove invenzioni anche senza il bisogno di un’infrastruttura complessa come quella necessaria in un ecosistema aziendale.

Avere un FabLab nella propria città è un incentivo importante per accrescere le proprie conoscenze, per formarsi sulle nuove tecnologie e per aprirsi a nuovi potenziali e redditizi lavori. E nel caso non ci fosse già un FabLab in città aprirne uno non è un impresa impossibile dal momento che , in qualunque momento, vista la mancanza di un marchio o licenza da esibire, ci si può mettere all’opera per portare un pò di futuro nella propria città. Requisito primario, a mio parere, come per ogni cosa aggiungerei, è avere la giusta motivazione e trovare allo stesso tempo persone che condividono i nostri stessi interessi e siano pronte ad imbarcarsi su un progetto  tanto innovativo quanto entusiasmante. Ogni FabLab ha una storia diversa, alcuni sono nati per iniziativa di enti pubblici o privati, mentre altri si sono formati grazie alla volontà ed alle energie di gruppi di individui, esistono poi ovviamente casi misti. Quattro sono i punti da seguire affinché il FabLab sia effettivamente accreditato come tale: deve essere pubblicamente accessibile, deve seguire e mostrare il manifesto dei FabLab, garantire la disponibilità di un insieme di strumenti e processi condiviso con gli altri FabLab ed , infine , deve essere attivo e partecipare alla rete di tutti i FabLab. Entrare in contatto con gli altri laboratori sia italiani sia stranieri, infatti, vi permetterà, ancora prima di entrare in questa avventura, di capire meglio i vostri obiettivi e le vostre aspettative sull’argomento rispetto alla realtà quotidiana. Sono convinto che chi deciderà di investire in quest’attività sempre più in via di crescita, investirà certamente in un settore molto promettente per il prossimo futuro.

Primo punto per l’avvio di questo progetto è definire la struttura ed il finanziamento. Il nascente FabLab potrà essere economicamente autosufficiente attraverso un buon numero di volontari a formare il team iniziale o potrà essere sponsorizzato da venditori esterni. Ogni opzione avrà i suoi lati positivi e negativi: la maggiore libertà nelle scelte imprenditoriali data da un FabLab totalmente libero da eventuali stakeholders esterni dovrà mettere in conto , ovviamente, la possibilità di maggiori problemi finanziari. Per quanto riguarda l’iter burocratico invece è necessario innanzitutto aprire una partita IVA, iscriversi alla Camera di Commercio, ottenere il nulla osta sanitario e sulla sicurezza dei locali che si andranno ad utilizzare da parte dell’ASL e successivamente dichiarare l’inizio delle attività presso il Comune. Per un locale adeguato si può partire anche da un laboratorio di piccole dimensioni, uno spazio adatto ed aperto al pubblico dove tenere i vari macchinari ed eventualmente tenere corsi e workshop. Il punto di forza di un laboratorio di stampa in 3d di successo sta nella qualità delle proprie attrezzature. Tale spazio dovrà avere al suo interno dei macchinari base per svolgere le attività generiche necessarie: prima tra tutti avrete bisogno di una stampante 3D, seguita da almeno una macchina CNC e una a taglio laser in modo che i vostri artigiani possano giocare con i materiali e le loro potenzialità. Perfetto sarebbe per la fabbricazione digitale disporre ,inoltre, di macchine di fresatura ad alta precisione per la stampa di circuiti che possano permettere alle persone di produrre il loro hardware. I costi di investimento iniziali variano dai 10.000 ai 20.000 euro per un laboratorio di piccole-medie dimensioni. Non basta però comprare delle macchine ed installarle, la vera scommessa è creare le condizioni utili affinché il laboratorio cresca e si mantenga sempre vivo ed innovativo. Un FabLab ,oltre ad essere uno stimolo per la produzione locale con il giusto “business plan”, può diventare un lavoro molto redditizio: ci si può focalizzare sul lancio di nuovi prodotti, sull’educazione globale con la creazione di laboratori e training anche attraverso videoconferenze, diventare gli “incubatori” di imprenditori ed utenti che vogliono portare avanti il proprio progetto ma non hanno macchinari o conoscenze per farlo. Un nuovo FabLab si va ad integrare in un determinato luogo, andrebbe ,quindi , tarato secondo le reali esigenze del territorio in maniera tale da creare sviluppo industriale e sociale rendendo accessibili a livello locale le tecnologie finora in mano alla grande industria. Anche grazie all’incremento di spazi e laboratori come i FabLab si uniscono le varie competenze tra artigiani e designer, incrementando la formazione e coniugando così la rete locale a quella nazionale.

Un’inchiesta de:”Il corriere della sera” pubblicata nei giorni scorsi ci dà informazioni più dettagliate su come effettivamente con il giusto “business plan" questa tecnologia possa diventare un’attività professionale che funziona. Si può stampare per conto terzi mettendo a disposizione la propria stampante per i progetti che ci vengono portati in digitale in laboratorio con prezzi che in media vanno dai 10 ai 12 euro all’ora e quindi, con un rapido calcolo, con cinque ore di stampa al giorno e cinque giorni alla settimana si arriva al migliaio di euro al mese, quasi duemila se le ore diventano otto e si aggiunge anche il sabato. Fondamentale in questo caso trovare chi ha bisogno del nostro servizio di stampe 3D ed in questo piattaforme online come 3D Hubs, l’Airbnb della stampa tridimensionale, possono fare al caso nostro. Se la sola stampa per conto di terzi non dovesse bastare, tutto dipende infatti dal network di relazioni e di potenziali clienti che si ha, ci si può focalizzare anche sui corsi di formazione di base che , ultimamente , vengono presi d’assalto da curiosi ed aspiranti makers. Una terza rivoluzione industriale è in atto, ed in continua trasformazione proprio grazie a questi nuovi ed innovativi sistemi di produzione: makers, makerspace, fablab e creativi di tutto il mondo sono alla base di questo processo che, ormai non più allo stato embrionale, sta portando risultati visibili e sta cambiando, e cambierà ancora di più in futuro, le logiche del mercato. Tanto vale, già da ora, cominciare a prepararsi e documentarsi su questo cambiamento così da non farsi trovare impreparati per le prossime sfide che il mercato del lavoro ci porterà.

Gianluca Cimini

]]>
Fri, 23 Dec 2016 17:18:16 +0000 http://www.gianlucacimini.it/mc/486/1/consigli-per-l-uso-come-entrare-nel-fantastico-mondo-dei-fablab---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
La rivoluzione FabLab: dove creatività, artigianato ed innovazione si fondono - di Gianluca Cimini http://www.gianlucacimini.it/mc/485/1/la-rivoluzione-fablab-dove-creativita-artigianato-ed-innovazione-si-fondono---di-gianluca-cimini

Nati quasi per caso grazie al “Center for Bits and Atoms (CBA)” del MIT, a partire da Boston, i Fablab si sono rapidamente diffusi in ogni continente del mondo, dagli Stati Uniti all’Europa, passando per l’Africa e l’Asia attraverso Afghanistan e Costarica.  Ma cos’è un Fablab? Il termine deriva dall’inglese “fabrication laboratory” e si riferisce ad un laboratorio di fabbricazione digitale su piccola scala capace di produrre potenzialmente qualsiasi cosa, generalmente oggetti che fuoriescono dalla produzione di massa. Questo luogo si presta all’innovazione, all’apprendimento, all’invenzione ed alla prototipazione proponendosi come anello di congiunzione di una comunità mondiale fatta di studenti, educatori, artigiani, tecnici e ricercatori. Obiettivo è quello di costruire una rete globale per la ricerca e l’invenzione stimolando l’imprenditoria locale. Non potendo competere con la produzione di massa, i fablab dimostrano, invece, grandi potenzialità nel fornire ai loro utenti gli strumenti per realizzare in proprio dispositivi tecnologici attraverso la produzione di prodotti di altissima qualità, a costi bassissimi rispetto all’industria tradizionale e soprattutto personalizzati. Questi si possono progettare con appositi programmi e stampare in diversi materiali, attraverso l’uso di stampanti 3D, frese a controllo numerico, laser cutter, macchine per il taglio vinilico o postazioni di saldatura e lavorazione elettroniche. Esistono quattro condizioni, definite dal CBA e dalla FabFoundation, affinché ogni fablab possa definirsi tale: in primis, l’accesso al laboratorio, gratuito o a pagamento, deve essere pubblico almeno per una parte della settimana; in secondo il laboratorio deve sottoscrivere e mostrare il manifesto dei fablab ossia la “Fab Lab Charter” ; poiché tutti i fablab condividono strumenti e processi comuni, tutti i progetti realizzati devono essere condivisi e facilmente riproducibili all’interno della rete dei fablab; infine il laboratorio deve essere parte attiva del network globale dei FabLab attraverso la partecipazione alle conferenze annuali e alle partnership con gli altri laboratori.

In questo laboratorio aperto al pubblico, individui ed imprese possono trasformare le proprie idee in prototipi e prodotti. Una vera e propria palestra per la mente dove inventori e creativi producono oggetti grazie alle nuove tecnologie digitali e si preparano a quella che l’Economist ha definito la “Terza Rivoluzione industriale”. Dal 2001, quando il giovane professore del MIT, Neil Gershenfeld, immaginò di creare un ambiente dove si sarebbe potuto fare direttamente quasi tutto quello che si fosse immaginato, ad oggi, il fenomeno dei fablab si è moltiplicato a dismisura in ogni parte del mondo raggiungendo, come già detto, ogni angolo dei cinque continenti, in Italia ne venne aperta una provvisoria a Torino solo nel 2011 per i 150 anni dell’unità d’Italia, con estremo ritardo rispetto alle altre nazioni, una cosa impensabile anche perché proprio in Italia è nato Arduino, il mini computer da venti euro inventato a Ivrea e diventato presto uno strumento indispensabile dei FabLab di tutto il mondo perché consente di sperimentare facilmente a basso costo.

“Un FabLab serve anzitutto a far capire le immense potenzialità della tecnologia digitale. Immagini un oggetto, lo progetti al computer e lo produci con un clic. Lo scorso anno una sedia progettata ad Officine Arduino, l'abbiamo stampata tale e quale in Finlandia mandando il file via email. - afferma Massimo Menichinelli, designer e uno dei primi makers d’Italia - In un paese dove le piccole e medie imprese non investono in ricerca e sviluppo per mancanza di fondi, i FabLab sono centri dove fare sperimentazione e realizzare prototipi a basso costo. Se apriranno nei posti giusti, con un forte legame al territorio e all’economia locale, potranno ricostruire le filiere produttive che la crisi ha distrutto”.

Alcuni Paesi credono fermamente a questa rivoluzione e stanno investendo per favorire la nascita di nuovi FabLab sul proprio territorio: l’amministrazione Obama ha proposto, per esempio, di investire un miliardo di dollari per innovare il sistema manifatturiero nazionale attraverso la valorizzazione di stampa 3D e digital design. Sempre in USA per il settore dell’educazione è stato lanciato il programma “Mentor Makerspace” che prevede l’installazione di lavoratori di fabbricazione digitale in 10 scuole superiori californiane, ma l’obiettivo finale mira a coinvolgere ben 1000 istituti. I FabLab aprono, a mio avviso, una nuova era di apprendimento per i giovani attraverso il metodo “learning by doing” ossia “imparare facendo”: migliaia di ragazzi cresciuti in un’era tecnologica senza precedenti, possono vivere in maniera attiva e non solo passiva questo importante momento storico imparando non solo ad utilizzare ma anche a capire come funziona una determinata tecnologia indirizzati da un insegnante (ma anche dalle tante fonti gratuite che si trovano ormai su internet). Proprio Su internet, infatti, esiste un numero altissimo di forum e materiale di supporto per chi si voglia addentrare in questo magico mondo. Se volete mettere insieme un fablab, grazie anche al costo delle tecnologie in progressiva diminuzione (si parte da un minimo di circa 10.000 euro), non è impossibile: serve innanzitutto uno spazio fisico facilmente accessibile a tutti dotato delle dotazioni minime per questo scopo e quindi stampanti 3D a filamento, macchine di taglio laser, schede Arduino, accessori elettronici vari come led e sensori, non possono mancare inoltre gli strumenti tradizionali ed indispensabili come per esempio i saldatori a stagno.

Ci troviamo solo all’inizio di una vera e propria rivoluzione cominciata in sordina qualche anno fa, ma che si sta rapidamente diffondendo in maniera virale. Una rivoluzione che si basa su diversi fattori che si fondono insieme in imprevedibili sinergie: il concetto del Glocal ossia il bisogno di tornare ad un approccio che valorizzi il territorio utilizzando però i vantaggi che derivano dall’uso della rete internet a livello globale che si lega alla crisi della industria manifatturiera tradizionale così come l’abbiamo conosciuta fino ad oggi, con i prodotti importati dai paesi asiatici a basso costo che hanno delocalizzato la produzione e che ora , grazie a creativi, designer, studenti e piccoli geni, potranno, a mio avviso, modificare le leggi del mercato nel prossimo futuro. La crescita stabile dei FabLab è un dato di fatto che aumenta di mese in mese sotto i nostri occhi, e sono sicuro che se alla creatività riusciremo ad unire un nuovo approccio imprenditoriale potremo avere tra le mani la possibilità di rilanciare piccole e medie imprese alla ribalta internazionale attraverso il connubio che mi auguro tra artigianato locale e manufatti hi-tech creati anche, ma non solo, con stampanti 3D.

Gianluca Cimini

]]>
Thu, 22 Dec 2016 19:04:51 +0000 http://www.gianlucacimini.it/mc/485/1/la-rivoluzione-fablab-dove-creativita-artigianato-ed-innovazione-si-fondono---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Industria 4.0: cosa ci si aspetta dalla quarta rivoluzione industriale - di Gianluca Cimini http://www.gianlucacimini.it/mc/484/1/industria-40-cosa-ci-si-aspetta-dalla-quarta-rivoluzione-industriale---di-gianluca-cimini

Cloud computing, Big Data e nuovi processi di automazione stanno cambiando, e lo faranno ancora di più negli anni a venire, le nostre vite. Un grande cambiamento sia sociale sia tecnologico è in atto con quella che da molti è vista come la quarta rivoluzione industriale. Il termine utilizzato per questo importante passo è quello di “industry 4.0” usato per la prima volta alla Fiera di Hannover nel 2011 in Germania e ripreso in seguito dai molti piani industriali dei vari stati membri dell’unione europea per riferirsi alle proposte di legge riguardanti la digitalizzazione dei processi produttivi (come il “Piano Nazionale Industria 4.0 presentato a settembre 2016 dal governo Renzi). Siamo partiti dalla rivoluzione delle macchine a vapore e dell’automazione, per passare poi a quella dell’elettricità fino all’ultima della prima digitalizzazione dell’informatica, cosa ci aspetta, quindi, per il futuro? Personalmente penso che cambierà a tutti gli effetti il nostro rapporto con il lavoro: robot, stampanti 3D, sensori, cloud, big data, intelligenze artificiali, tutto verrà stravolto e questo cambiamento profondo porterà una rivoluzione sociale prima che tecnologica. L’obiettivo: quello di portare ad una produzione quasi integralmente basata su un utilizzo di macchine intelligenti, interconnesse e collegate ad internet. La scommessa: quella di saper trasformare questo percorso evolutivo verso la “Fabbrica intelligente” in una grande opportunità non solo per le grandi, ma anche per le piccole e medie imprese. Con questa rivoluzione cambieranno i modi di produzione (come si producono beni e servizi) e persino i rapporti di produzione (per esempio quelli tra datore di lavoro e lavoratore). L’utilizzo dei dati sarà lo strumento che creerà valore e che muoverà sia la potenza di calcolo delle macchine, sia tutti i temi relativi alla rivoluzione 4.0. Una volta raccolti ed elaborati i dati verranno utilizzati nella produzione di beni e servizi. Il caso Adidas, è emblematico: dopo 20 anni di delocalizzazione in Asia per la produzione di scarpe ed altri prodotti del noto marchio, il grande marchio tornerà a produrre in Europa sostituendo quella che una volta era manodopera a basso costo con robot e operai iperspecializzati. Si apre concretamente con questo caso un nuovo scenario nella produzione di beni e servizi con l’avvento dei robot che sostituiranno molti dei lavori manuali che ora svolgono ancora gli esseri umani: spariranno posti di lavoro più semplici , ma ne verrano creati altri più specializzati, i dati ci dicono che il 47% dei lavori in Europa e negli Stati Uniti sono a rischio di automazione in meno di 20 anni.

Stati Uniti, Germania, Francia ed altri importanti Paesi credono fermamente in questa rivoluzione ed hanno già realizzato iniziative varie per avvantaggiare i soggetti di questa trasformazione. L’Italia è da sempre la seconda manifattura d’Europa e ha una tradizione industriale fra le più gloriose a livello mondiale. Tuttavia senza adeguarsi alle nuove tecnologie tutto ciò è destinato a diventare una targhetta da museo. Con il Piano nazionale “Industria 4.0” anche l’Italia vuole mettersi in linea con gli altri paesi: il piano prevederà incentivi fiscali per 13 miliardi di euro ed un aumento di spesa privata per un totale di 24 miliardi. Ovviamente l’obiettivo è recuperare terreno rispetto agli altri Paesi facendo diventare l’Italia quello col più alto tasso di investimento early stage. Incentivando gli investimenti privati su tecnologie e beni, aumentando la spesa privata in ricerca, sviluppo ed innovazione e rafforzando la finanza a supporto dell’industria, si cercherà , quindi, di avviare e far progredire l’industria italiana verso il futuro. Grazie agli incentivi ed agli ammortamenti fino al 250% per i nuovi macchinari le aziende italiane potrebbero migliorare la loro competitività riducendo l’obsolescenza della tecnologia italiana installata e dimezzando l’incidenza delle macchine più vecchie e meno performanti sul totale. Nel piano del governo, inoltre, troviamo anche investimenti per la banda larga nelle “aree grigie” del paese con l’obiettivo di portare entro il 2020 almeno metà delle imprese italiane ad avere una connessione internet di almeno 100mega di velocità. Il passaggio sulla banda ultra larga è essenziale per progredire e permettere la condivisione di file, progetti, analisi dei dati, tutto il futuro passa da internet veloce. Credo che le opportunità di sviluppo per le realtà aziendali che riusciranno a cogliere la sfida del digitale siano enormi: richiedono però impegno e coordinazione adeguati con investimenti in capitale fisso ed immateriale, ricerca, innovazione e formazione. Una parte specifica per la maturazione di questo progetto dovrà essere, a mio avviso, proprio quella legata alla formazione scolastica, dal momento che, già ora, l’Italia dimostra di essere avanti rispetto all'Europa sull'adozione di servizi di cloud computing mediamente o altamente sofisticati (con il 20% delle imprese che utilizzano tali tecnologie contro una media Ue dell’11%) , ma ben lontana dal poter attuare una quarta rivoluzione industriale a causa delle competenze digitali ancora limitate, che la collocano al 20esimo posto della classifica europea a riguardo. Obiettivo importante, quindi, quello di avere, nel breve periodo, studenti e manager specializzati sui temi dell’Industria 4.0 attraverso istituti tecnici superiori focalizzati su questo campo, competence center e digital innovation hub nazionali e non di meno una sensibilizzazione di tutto il Paese su questo tema così importante per lo sviluppo della nostra Italia. Compito delle industrie e del governo , quindi, abituare fin dalle scuole al digitale, far sì, cioè, che il know how acquisito nella sfera privata diventi fattore di produttività nel mondo professionale. L’innovazione è una strada segnata ma si può indirizzare, quello che non si deve fare è rimanere ancora una volta immobili. 

Gianluca Cimini

]]>
Tue, 20 Dec 2016 19:31:12 +0000 http://www.gianlucacimini.it/mc/484/1/industria-40-cosa-ci-si-aspetta-dalla-quarta-rivoluzione-industriale---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
IoT: la Cyber-security di domani passa attraverso l’Internet-of-things - di Gianluca Cimini http://www.gianlucacimini.it/mc/483/1/iot-la-cyber-security-di-domani-passa-attraverso-l-internet-of-things---di-gianluca-cimini

Coniata nel 1999 da Kevin Ashton, l’espressione “Internet delle cose” (IoT - Internet of things) si riferisce a quella rete di oggetti dotati di tecnologie di identificazione, collegati fra di loro, in grado di comunicare sia reciprocamente sia verso punti nodali del sistema, ma soprattutto in grado di costituire un enorme network di cose dove ognuna di esse è rintracciabile per nome e in riferimento alla posizione. Oltre al fatto di poter dotare di un’interfaccia di connessione a Internet tutti gli oggetti del mondo che interagiscono con l’uomo, l’Internet of Things permette soprattutto di elaborare a distanza e senza interferenza umana tutta una serie di dati e informazioni rilevate da una miriade di sensori che circondano la vita quotidiana di ciascuna persona. L'obiettivo dell'internet delle cose è far sì che il mondo elettronico tracci una mappa di quello reale, dando un'identità elettronica alle cose e ai luoghi dell'ambiente fisico. Ritengo, personalmente, che i vantaggi siano palesi anche se a volte non li notiamo direttamente: settore sanitario, manifatturiero o retail, tutti possono ottenere grandi benefici da questa nuova forma tecnologica. Sia a livello personale (domotica e smart-home), sia a livello macroscopico (smart-city e smart grid) le aspettative degli esperti del settore mi suggeriscono che l’Internet delle cose cambierà il nostro modo di vivere in modo radicale grazie ad un mercato in rapida evoluzione, con stime da più parti che ci dicono che entro il 2020 saranno più di 25 miliardi i dispositivi IoT nel mondo. A fine 2016 la spesa IT per il mercato dell’Internet of Things in Italia ha raggiunto i 1.924 milioni di Euro, con una crescita del +28,4% rispetto al 2015. I dati che emergono dal rapporto dell'Istituto per la Competitività I-Com "La rivoluzione dell'Internet delle cose e del 5G: industria 4.0, efficienza energetica e ehealth” ci raccontano inoltre che in Italia il 20% delle imprese si trovano ad usare servizi di cloud computing mediamente o altamente sofisticati (rispetto ad una media UE dell’11%).

Due fattori importanti però mi portano dei dubbi riguardo questa rivoluzione: la privacy e la sicurezza. La prima perché tutti i dispositivi connessi ed intorno a noi tendono a trasformare le nostre azioni e le nostre decisioni in Big Data, e non esiste un modo semplice e sicuro per prevedere, in questo momento, come questi dati saranno utilizzati da corporazioni o governi che aspirino ad un controllo sempre maggiore su consumatori o ignari cittadini. L’Internet of Things Research Study prodotto da HP nel 2015 ci rivela infatti che circa l’80% dei dispositivi analizzati presenta problematiche connesse alla privacy. Il secondo rimane già da adesso uno dei problemi più gravi nell’adozione dell’Internet delle cose con la possibilità sempre più alta che si moltiplichino a dismisura gli attacchi hacker tramite devices IoT. È già successo che due hacker prendessero il controllo di un’auto a distanza utilizzando i vari sistemi elettronici dell’autovettura collegati a internet (computer di bordo, chiusura centralizzata, radio e soprattutto sterzo e freni). Quella volta il malcapitato era un giornalista di Wired, nota rivista di tecnologia degli Stati Uniti, e gli hacker due ingegneri della DARPA, l’Agenzia della Difesa Americana che si occupa di progetti speciali. Un test, quindi, ma per aprirci la mente su quanto in effetti la sicurezza dell’IoT sia ancora lontana (allo stesso tempo questi test aiutano le case automobilistiche a correggere gli errori dei loro software). Gli oggetti casalinghi smart si connettono alla rete in modo seriale ed automatico rispondendo a porzioni di codice e a software Open Source, protetti solitamente con password deboli senza risorse hardware o software per proteggersi dalle intrusioni (né firewall né antivirus e nemmeno una connessione https la cui implementazione renderebbe il dispositivo più costoso e lento nel rispondere). E così i devices IoT sono stati protagonisti, sia attivi sia passivi, di qualche incursione hacker: usati in massicci attacchi DDoS o sfruttati da esperti di sicurezza informatica per introdursi nelle reti LAN di ignari utenti. Nelle scorse settimane abbiamo assistito ad un attacco hacker senza precedenti: attraverso una rete di devices IoT violati, e collegati attraverso la botnet Mirai, si è creata una grande quantità di traffico “finto” che ha danneggiato e bloccato la produttività della rete così da impedire il corretto funzionamento di siti di estrema rilevanza come Twitter, Pinterest, Amazon e PayPal.

“La botnet Mirai ha concretizzato anche la paura del settore di un eventuale utilizzo di IoT (Internet of Things) e di altri dispositivi connessi a Internet sia per gli attacchi DDoS sia alle applicazioni web mettendo in risalto l'esigenza per i produttori di dispositivi di prestare molta attenzione alla sicurezza” ha affermato Martin McKeay, senior security advocate e senior editor dell’ultimo Rapporto sullo stato di Internet / Security di Akamai riferito al 3° trimestre dell’anno 2016.

Molti devices sono stati lanciati sul mercato per seguire il trend del momento senza però essere adeguati a possibili minacce di sicurezza e così molti produttori IoT non sono ormai in grado di proteggere tali prodotti perché magari non dispongono della memoria e della capacità di elaborazione necessarie per essere aggiornati: su tali dispositivi un eventuale attacco non può, quindi, essere bloccato. A tal riguardo, linee guida per tutti i dispositivi IoT sono state fortemente volute in questi giorni sia dall’amministrazione Obama, sia dal Department of Homeland Security, con l’obiettivo di fermare gli attacchi hacker e costruire fiducia nel pubblico per quanto riguarda elettrodomestici e apparecchiature medicali che si collegano ad Internet. Consigli da seguire, ma non obbligatori, per ingegneri ed analisti di sicurezza informatica, dalla progettazione fino alla realizzazione del dispositivo stesso focalizzandosi sulla costruzione dei sistemi di sicurezza direttamente nella tecnologia dell’Internet of Things: a partire dal costringere il consumatore a cambiare la password predefinita prima dell’uso del prodotto. Ritengo che rimanga prioritaria, inoltre, riguardo all’Industria 4.0 l’introduzione di innovazioni politico-strategiche, organizzative, tecnologiche e culturali che possano garantire oltre alla sicurezza delle infrastrutture critiche nazionali anche la protezione delle aziende che operano in settori determinati per lo sviluppo specie con l’aumento della frequenza di attacchi informatici sempre più sofisticati e dirompenti. Quando si tratta di proteggere rete e dati dai cyber-attacchi, oltre alle soluzioni hardware e software non dovremo mettere in secondo piano il comportamento umano e le azioni che inconsapevolmente facciamo quando ci troviamo davanti a computer o smartphone: comportamenti poco attenti e poco consapevoli che pesano enormemente sulla sicurezza dei nostri dati e delle nostre reti. Il mio consiglio è quello di formarsi ed informarsi, sia per i comuni utenti sia e ancor di più per i personaggi ad alto profilo, su come comportarsi in modo consapevole nel mondo iper-connesso.

Gianluca Cimini

]]>
Mon, 19 Dec 2016 16:49:12 +0000 http://www.gianlucacimini.it/mc/483/1/iot-la-cyber-security-di-domani-passa-attraverso-l-internet-of-things---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
A more secure online environment - by Gianluca Cimini http://www.gianlucacimini.it/mc/482/1/a-more-secure-online-environment---by-gianluca-cimini

Last July 2016, the European Parliament adopted the Directive on Security of Network and Information Systems – the so-called "NIS Directive[1]. The Directive entered into force in August and EU Member States will have 21 months to transpose the Directive into their national laws and 6 months more to identify operators of essential services. The adoption of the NIS Directive was commented as a milestone step towards a more efficient and integrated approach to cybersecurity, one of most critical challenges of our economy and society.

Over the last decades digital technologies have become the backbone of our everyday life and crucial resources all economic sectors rely on. If one targets a country's computer information systems, infrastructures, computer networks, and/or citizens' personal computer devices, he/she undermines – or even disrupts – its proper functioning, affecting a wide range of service that we take for granted, e.g. digital, economic, energy, infrastructural, electrical, water-related. Hence, the importance not only to counter but firstly to prevent cyberattacks, however labelled (cyber campaign, cyber warfare, cyberterrorism).

Since the adoption of the EU Cybersecurity Strategy in 2013 [2], the European Commission has been working towards a more secure online environment, including cybersecurity at the heart of its political priorities (see Digital Single Market Strategy, May 2015 and European Agenda on Security, April 2015). Many efforts have been stepped up to better protect Europeans online and they led to the adoption ofthe Directive on Security of Network and Information Systems (NIS Directive), which was presented by the European Commission in 2013, negotiated with the European Parliament, along with the Council of the European Union and finally adopted by the European Parliament on 6 July 2016 to provide the EU with a common level of cybersecurity.

In a nutshell, the NIS Directive is composed of three main pillars1. It increases Member States preparedness and resilience, urging them to equip properly, e.g. through a Computer Security Incident Response Team (CSIRT) and a national NIS authority;2. It sets up a "Cooperation Group" and "CSIRT Network", with the purpose of facilitating cooperative exchange of information and promoting effective operational cooperation on specific cybersecurity incidents respectively; 3.it ensures and call for the implementation of a cross-sector - energy, transport, water, banking, financial market infrastructures, healthcare and digital infrastructure- culture of security.

In this scenario,both Governments and the private sector are the main actors contributing to a strengthened cybersecurity.However, it is clear that businesses which play a crucial role both for society and economy are identified as the key operators of essential services under the NIS Directive, standing on the front line as for the implementation of appropriate security measures and the notification of serious incidents to the relevant national authority.

Gianluca Cimini

]]>
Thu, 15 Dec 2016 21:14:39 +0000 http://www.gianlucacimini.it/mc/482/1/a-more-secure-online-environment---by-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)