gianlucacimini.it Rss http://www.gianlucacimini.it/ Coltiviamo i nostri sogni con coraggio. Avanti, sempre! - Gianluca Cimini it-it Thu, 14 Dec 2017 19:56:53 +0000 Fri, 10 Oct 2014 00:00:00 +0000 http://blogs.law.harvard.edu/tech/rss Vida Feed 2.0 gianlucacimini2016@gmail.com (Gianluca Cimini) gianlucacimini2016@gmail.com (Gianluca Cimini) Mediacontent http://www.gianlucacimini.it/vida/foto/logo.png gianlucacimini.it Rss http://www.gianlucacimini.it/ AI: nuovo business per la rivoluzione del futuro (anche in Italia) http://www.gianlucacimini.it/mc/553/1/ai-nuovo-business-per-la-rivoluzione-del-futuro-anche-in-italia

Proviamo ad immaginare come poteva essere la vita di un comune cittadino italiano nel 1700: crisi energetica mondiale, comunicazione limitata al dialogo personale, trasporti alimentati tramite “paglia”. Tre secoli che hanno fatto la differenza, nonostante questo basta anche solo pensare a “soli” trent’anni fa per capire quanto velocemente la rivoluzione tecnologica si appresta a cambiare ancora di più le nostre vite. Impossible per noi definire cosa sarà il futuro, rimane la sicurezza però che arriverà presto. Il progredire umano che va sempre più in fretta è ciò che il futurista Ray Kurzweill ha chiamato Law of Accelerating Returns. Succede perché le società più avanzate possono progredire più in fretta rispetto a quelle meno avanzate, proprio perché sono più avanzate. Gli avanzamenti sono sempre più grandi e si verificano più velocemente: Kurzweill suggerisce che nel 2000 la velocità del progresso era cinque volte maggiore rispetto alla velocità media del 20esimo secolo. Per via della “Legge dei Ritorni Accelerati”, quindi si può immaginare che nel 21esimo secolo vedremo un progresso 1000 volte superiore a quello del 20esimo secolo. La rivoluzione AI, ormai intrapresa verso la super intelligenza, è iniziata.

Già ora usiamo l’AI tutti i giorni ma spesso non ce ne rendiamo conto. John McCarthy, che coniò il termine "Intelligenza Artificiale" nel 1956, diceva che "non appena funzionerà, nessuno la chiamerà più AI”. Inoltre con il termine AI indichiamo un concetto abbastanza vasto, le cui categorie principali sono però tre: l’Artificial Narrow Intelligence (ANI): indicata a volte come Weak AI (AI Debole), l'ANI è una AI specializzata in una sola area; l’Artificial General Intelligence (AGI): chiamata occasionalmente Strong AI (AI Forte), o AI di livello umano, l'intelligenza artificiale generale si riferisce a un computer che è generalmente intelligente quanto un essere umano ed infine la Superintelligenza Artificiale (ASI) identificata come "un intelletto di gran lunga superiore al migliore dei cervello umano praticamente in ogni campo, compresa la capacità scientifica, la saggezza generale e la abilità sociali. Allo stato attuale siamo ancora lontani da quest’ultimo livello mentre del primo abbiamo già la vita piena: sistemi integrati nell’automobile come ABS o guida autonoma; smartphone ed applicazioni che prevedono i nostri bisogni; la posta elettronica con il suo filtro antispam; traduttori linguistici e motori di ricerca online; solo per citarne alcuni rimanendo nel settore di quei prodotti destinati al mondo consumer. Ogni nuova innovazione nelle ANI aggiunge però, discretamente, un altro mattone alla strada verso la AGI e la ASI. Intanto però le AI narrow di cui disponiamo oggi, pur riuscendo a fare in genere solo una cosa, la fanno incredibilmente bene, e, spesso e volentieri, a livelli superumani. I sistemi di Deep Learning permettono di creare così sistemi intelligenti “vuoti” che, in un secondo momento, vanno addestrati dando loro in pasto grandi quantità di dati. Su questo concetto tante aziende in tutto il mondo stanno costruendo un nuovo tipo di prodotti.

Basti pensare a Google, da sempre impegnata in progetti futuristici, che ha affermato da poco di essere riuscita a generare altre intelligenze artificiali partendo da una AI originaria attraverso l’Apprendimento Approfondito, tutto avvenuto, quasi, senza l’intervento umano, ma con la sola attenzione e le cure di un amorevole madre quale è AutoML, l’originaria AI di Google.

Oltre ai tradizionali colossi del web comunque tante piccole realtà stanno sviluppando una propria proposta nel campo dell’Intelligenza Artificiale, a volte usando proprio gli strumenti messi a disposizione dai grandi del settore. Tutto questo non accade solamente nella ormai famosa Silicon Valley ma anche nella nostra Italia dove sono nate negli ultimi anni decine e decine di nuove società, ognuna con la propria identità, idea e progetto. La maggior parte di queste si appoggiano a “Chatbot, Computer Vision e Decision Making” per le loro proposte commerciali.

Nelle Chatbot i Sistemi artificiali si trovano ad interfacciarsi con le persone tramite chat testuale. L’AI deve quindi prima comprendere il linguaggio naturale utilizzato dai noi umani per poi elaborarlo e selezionare le risposte più pertinenti estrapolate da un database esistente e curato da umani, in futuro tali risposte probabilmente potranno essere generate in maniera automatica e naturale direttamente dall’AI (Siri, Cortana, Google Assistant sono alcuni dei più famosi esempi di questo tipo). Come l’italiana “Indigo” che ha l’obiettivo di migliorare la qualità del lavoro umano, scaricando gli operatori da mansioni rutinarie a bassa e bassissima qualificazione. Secondo un recente studio di ABI Research, Artificial intelligence in telecom networks, gli assistenti virtuali utilizzati dalle aziende di Tlc potrebbero garantire risparmi per oltre 1,2 miliardi di dollari nel 2022, e proprio per questo le telco investiranno 14 miliardi di dollari entro il 2022, con un tasso di crescita annuo superiore al 22%.

Tramite un opportuno addestramento inoltre i Computer possono imparare a capire il mondo reale, magari riuscendo a distinguere un gatto da un cane o un passeggino da una bicicletta. Capacità utile per sostituire un controllo umano con un, magari più attento, controllo elettronico (come nel caso delle automobili a guida autonoma, nei sistemi di sorveglianza o in quelli di sistema di produzione industriale). Come “ELIF” che propone servizi di analisi ed elaborazione mirati ai testi, ai video, ma anche alle votazioni in aule parlamentari, visualizzazione di dati multidimensionali e molto altro al fine di estrarre informazioni rilevanti da dati apparentemente caotici.

Infine la terza applicazione è quella legata alla presa di decisioni, conseguente alla raccolta ed elaborazione di informazioni varie, in maniera tale da arrivare ad una decisione che sia il miglior mix tra esperienza umana assimilata e analisi dei dati. Come il caso di “Tangra Mob” che vuole creare analisi  precise, supportate dall'AI, per offrire alle pubbliche amministrazioni l'occasione più unica che rara di fare investimenti a basso rischio sul tema delle Smart Cities, Machine Learning, Software Engineering and Internet of Things.

Piccole realtà, solo per citarne qualcuna nel panorama italiano, che, puntano tutto sull’innovazione e sulla personalizzazione di prodotti ritagliati sui bisogni del cliente, (cosa che a volte sfugge invece alle compagnie più grandi). Aziende che si differenziano per tante caratteristiche ma che condividono la stessa idea ossia che l’AI può cambiare il profitto di un’azienda o migliorare la vita del singolo e di ognuno di noi, anche in Italia. 

Gianluca Cimini

]]>
Thu, 14 Dec 2017 19:56:53 +0000 http://www.gianlucacimini.it/mc/553/1/ai-nuovo-business-per-la-rivoluzione-del-futuro-anche-in-italia gianlucacimini2016@gmail.com (Gianluca Cimini)
Trasporto merci ad una svolta grazie a guida autonoma e motori elettrici http://www.gianlucacimini.it/mc/552/1/trasporto-merci-ad-una-svolta-grazie-a-guida-autonoma-e-motori-elettrici

Al Tokyo Motor Show è stato presentato al mondo “E-FUSO Vision ONE” prototipo del primo camion elettrico Daimler-Mitsubishi in grado di avere una capacità di carico di 11 tonnellate, un’autonomia di 350 km con un pieno, costi di gestione più che dimezzati rispetto alle pari versioni diesel e soprattutto zero emissioni. Il mondo del trasporto merci abbraccia così per la prima volta la rivoluzione del motore elettrico grazie a questo autocarro, presentato ad Ottobre come prototipo perfettamente funzionante, che riesce a battere sul tempo altri altisonanti ed innovativi costruttori come Tesla, Cummins, VW e Nikola che stanno lavorando da tempo su progetti simili. Ma nonostante sia stata battuta sul tempo, Tesla, l’innovativa compagnia automobilistica di Elon Musk, ha saputo destare l’attenzione del pubblico proprio qualche giorno fa grazie alla presentazione del “suo” primo tir elettrico, e il mondo del trasporto merci, sembra adesso davvero ad una svolta “verde”. Molti sono stati fino ad oggi gli esperti che hanno sollevato diverse problematiche legate alla costruzione di un camion elettrico di grandi dimensioni, per grandi carichi e lunga percorrenza: da una parte a causa dell’attuale tecnologia per le batterie che richiederebbe l’impiego di gran parte della capacità di carico per gli accumulatori, lasciando poco spazio per la merce; dall’altro per il limite legato al prezzo, presumibilmente, troppo elevato per un veicolo di questo tipo messo a confronto con un mezzo attuale con motore a combustione. Quello che però effettivamente è stato presentato poche ore dopo, il “Tesla Semi Truck”, promette di rivoluzionare davvero il mondo del trasporto su strada. Il primo camion Tesla è in studio ed in progettazione da anni, poche ore prima della presentazione ufficiale Musk aveva avvertito tramite Twitter i giornalisti con un prodotto in grado di sbalordirli nel profondo con una frase alquanto ironica e coraggiosa: Tesla Semi Truck unveil to be webcast live on Thursday at 8pm! This will blow your mind clear out of your skull and into an alternate dimension. Just need to find my portal gun …”

Musk ha presentato il suo Classe 8 (ossia quella per i trasporti pesanti sulle lunghe distanze) con termini enfatici, affermando non solo che è il veicolo più pesante con i costi d'esercizio più bassi, ma anche quello più aerodinamico, sicuro e confortevole. In una recente intervista rilasciata al magazine Rolling Stone, a proposito del nuovo truck elettrico, Elon Musk ha affermato: "Probabilmente nessuno lo acquisterà per questo. Ma se devi fare un prodotto, fallo bello. Anche se ciò non influisce sulle vendite, voglio che sia bello”. Le linee futuristiche del Tesla Semi si abbinano a una concezione tutta nuova d’interpretare l’abitacolo, a partire dalla postazione di comando: il camionista, infatti, non troverà di fronte a sé un cruscotto convenzionale sul quale visionare le principali informazioni di bordo del mezzo, bensì potrà rilevare e azionare le funzionalità attraverso due ampi monitor touchscreeen posizionati ai lati del volante. Inoltre, proprio come sulle vetture di serie, potrà contare su una versione aggiornata del sistema di guida semiautomatica Autopilot, che ha già reso Tesla così famosa e che si appresta a versioni sempre più performanti e affidabili con i prossimi aggiornamenti di sistema (come avevo già approfondito in altri articoli precedenti). Le perplessità degli esperti riguardo alle batterie elettriche sono state poi superate grazie ad un pacco batterie, posizionato sotto la cabine di guida in maniera tale da ottimizzare la distribuzione dei pesi e quindi anche la stabilità durante le fasi di marcia. Autonomia dichiarata fino a 800 km con un solo pieno elettrico. Numeri da capogiro in grado quindi di innovare un settore sempre più trafficato. Il cuore del tir, composto da quattro unità elettriche alloggiate all’interno di quattro delle sei ruote sarà in grado di trasportare rimorchi pesanti fino a 36 tonnellate. Formidabili anche le performance, impensabili fino ad oggi per qualsiasi motrice spinta da un propulsore convenzionale, ossia da 0 a 96 km/h in 5 secondi e in 20 a pieno carico con consumi inferiori a 2 kWh ogni 1,6 km, quantificabile in un risparmio di carburante di oltre 200mila dollari. Il "miracolo" annunciato da Musk in un'affollata conferenza di presentazione si spiega con un coefficiente di penetrazione dell'aria (Cx) davvero da record: 0,38 (mentre la media attuale è 0,70). Importante ovviamente sarà anche la tempistica di ricarica per camion così grandi e, nonostante a riguardo non siano stati ancora dichiarati valori precisi, Tesla promette che a breve sarà possibile ricaricare i Truck in particolari stazioni denominate “Mega charger” dove grazie all’enorme potenza erogata sarà possibile in solo mezz’ora trasferire una quantità d’energia sufficiente a percorrere ben 643 km. Quello che solo fino a poco tempo fa sarebbe apparso impossibile, frutto solo di fantasia, diventerà invece realtà: la commercializzazione del prodotto e la consegna dei primi modelli avverrà nel 2019 con un prezzo finale che non è stato ancora reso noto, ma si può già prenotare con un acconto di 5 mila dollari. Wal-Mart, grande catena di distribuzione americana, ne ha prenotati 15, di cui 10 da provare in Canada e cinque negli Stati Uniti.

“Migliore sotto ogni punto di vista” secondo Musk, l’autoarticolato mettendo insieme elettricità ed il sistema Autopilot, che mantiene una determinata velocità, rallenta nel traffico e assicura di restare nella propria corsia, potrebbe essere l’inizio della svolta per il traffico merci su strada. In futuro, il Tesla potrebbe montare un sistema di guida più autonomo che permetterà anche il platooning truck”. ossia dei convogli semi automatici che grazie all’intelligenza artificiale, potranno creare, come in una carovana, una fila di camion che segue autonomamente il mezzo di testa affidato a un essere umano. Dall’elettrico con il tempo si passerà ad una sfida ancora più complessa: la guida autonoma, già anticipata in parte dallo stesso “Autopilot” della Tesla. Un camion a guida totalmente autonoma, infatti, potrebbe fare gola a numerose aziende, l’investimento iniziale sarebbe certamente ammortizzato dall’eliminazione dei costi futuri, come quello di un conducente. Si risparmierebbe tempo, rivoluzionando le modalità di consegna. 

Gianluca Cimini

]]>
Sun, 26 Nov 2017 12:58:24 +0000 http://www.gianlucacimini.it/mc/552/1/trasporto-merci-ad-una-svolta-grazie-a-guida-autonoma-e-motori-elettrici gianlucacimini2016@gmail.com (Gianluca Cimini)
Alla “Maker Faire” si racconta il futuro attraverso l’innovazione digitale http://www.gianlucacimini.it/mc/551/1/alla--maker-faire--si-racconta-il-futuro-attraverso-l-innovazione-digitale

Dal 1 al 3 Dicembre torna a Roma per la sua quinta edizione “Maker Faire - The European Edition 4.0” occasione unica per gli artigiani digitali ed italiani per incontrare e confrontarsi su scienza, fantascienza, tecnologia ed impresa. E così in esposizione per questa grande fiera dell’innovazione, di oltre 100 mila metri quadrati, ci saranno: droni, robotica, stampa 3D, internet delle cose, cucina, agricoltura ed impresa (ovviamente tutto 4.0). Dal 2013, anno della prima edizione, nel registro delle imprese innovative laziali erano registrate 49 “startup”, oggi le aziende innovative sono salite a 793 grazie ad un successo ed un interessamento da parte del pubblico che continua ad aumentare: l’edizione dello scorso anno della fiera ha visto più di 110 mila visitatori interessati alle innovazioni che il futuro già da ora ci permette di sognare (numeri così alti quelli di Roma che già hanno portato la fiera ad eguagliare per numero di visitatori quella della Silicon Valley e superare persino quella di New York). La quinta edizione promette quindi di fare convergere sulla capitale il meglio dell’innovazione da tutto il mondo. Ripartire dal digitale può essere anche uno dei modi per far ripartire il Paese e dimostrare che innovazione e digitale non sono solo concetti astratti o per pochi eletti, bensì strumenti alla portata di tutti di un’industria che crea posti di lavoro e piccole-medie imprese. Trovo che fiere di questo tipo siano molto importanti, prima di tutto permettono di far conoscere piattaforme e far avvicinare a questo mondo persone che probabilmente pensavano fosse troppo complicato per loro, e in più motivano chi è già del settore a dare il massimo per raggiungere alti obiettivi per tentare di semplificare le nostre vite quotidiane.

I “makers” potrebbero essere definiti “gli hobbisti tecnologici del 21esimo secolo”. Si occupano di tecnologia, design, arte, sostenibilità, modelli di business alternativi. Vivono di comunità online, software e hardware open source. E il loro sogno è inventare qualcosa da produrre autonomamente, per vivere delle proprie invenzioni. Sul medio e lungo periodo il movimento dei makers potrebbe inoltre permettere di innescare importanti effetti virtuosi sull’economia, in cui comunità crescenti di makers sperimentano nuovi approcci alla produzione basati su tecnologie a basso costo. Con un forte approccio innovativo, i makers creano così prodotti per avvicinare la nostra società a un futuro più semplice e alla portata di tutti. I makers sono una vera e propria rivoluzione perché “non c’è bisogno del permesso di nessuno per fare grandi cose” usando le parole di Massimo Banzi cofondatore di Arduino e curatore di questa quinta edizione (promossa dalla Camera di Commercio di Roma ed organizzata dalla sua Azienda speciale Innova Camera). Per l’edizione di questo anno c’è stata una grande “call” suddivisa in tre voci distinte: una indirizzata verso tutti i makers europei capaci di creare e stupire con la forza delle proprie idee; una per le Università e gli Istituti di Ricerca per porre i riflettori sull’innovazione, attraverso la diffusione della cultura digitale e lo sviluppo dell’imprenditorialità individuale e collettiva; infine, una per le Scuole, in collaborazione con il Miur, e rivolta verso gli Istituti scolastici di secondo grado nazionali e appartenenti ai Paesi dell’Unione Europea. Unico requisito per educatori, pensatori, inventori, ingegneri, autori, artisti, studenti, chef, artigiani 2.0 è quello di presentare progetti creativi, innovativi, didattici, ingegnosi. I progetti selezionati poi potranno partecipare gratuitamente all’evento di dicembre. In quell’occasione sarà possibile presentare la propria idea utilizzando uno stand con tavolo e sedie messo a disposizione dall’organizzazione. Inoltre, si potrà tenere un workshop e sarà possibile anche esibirsi in pubblico e vendere. Gli innovatori, gli inventori, i creativi e gli artigiani digitali di tutto il mondo hanno, saputo raccogliere l’appello della MFR, elaborato e inviato, senza risparmiarsi, i loro progetti in molteplici campi di applicazione e settori di produzione. Alla fine questa “chiamata”, conclusa l’8 ottobre, ha fatto registrare un boom di adesioni con più di 750 progetti arrivati da 40 nazioni diverse, con tutti i 28 Stati membri dell’Unione Europea rappresentati. I progetti più meritevoli verranno quindi esposti al grande pubblico dal 1 al 3 dicembre. Maker Faire Rome 2017 si aprirà come da tradizione con l'Educational Day, una mattinata di formazione gratuita dedicata alle scuole (sono attesi 25 mila studenti), che si terrà venerdì 1 dicembre dalle 9 alle 13. Alle 11.30 dello stesso giorno ci sarà la conferenza inaugurale, prima dell'apertura ufficiale al pubblico, che avverrà alle 14. E grandi protagonisti saranno infatti gli studenti, provenienti da 55 licei d’Italia e d’Europa, che hanno risposto alla “chiamata”.

Move; Life/Robots; Interaction; Fabrication; Young Makers; Food/Music/Art; Light&Darkness” ogni padiglione della fiera avrà il suo leit-motiv. Maker Faire Rome è una manifestazione nata per soddisfare un pubblico di curiosi di tutte le età che vuole conoscere da vicino e sperimentare le invenzioni create dai makers. Idee che nascono dalla voglia di risolvere piccoli e grandi problemi della vita di tutti i giorni, o anche solo divertire e intrattenere. E’ un evento pensato per accendere i riflettori su centinaia di idee e progetti provenienti da tutto il mondo in grado di catapultare i visitatori nel futuro. L’edizione 2017 di Maker Faire Rome è il palcoscenico ideale per raccontare la rivoluzione digitale in atto, rappresentando le innovazioni e le avanguardie tecnologiche. Siamo di fronte ad un cambiamento epocale ed ineludibile dove l’automazione industriale si integra sempre di più con il mondo delle imprese coinvolgendo il sistema produttivo e quello dei servizi: automazione, intelligenza artificiale, digitalizzazione, internet delle cose e gestione di Big Data. E così Maker Faire Rome è la fiera dove si può toccare con mano la rivoluzione digitale che sta cambiando il nostro modo di produrre e il nostro modo di vivere. Un luogo della ribalta sia per le aziende e sia per gli innovatori che utilizzano la nuova cultura digitale come mezzo per affrontare la sfida dei mercati. È la fiera dove si racconta, con semplicità, il futuro che ci aspetta e quello che è già tra noi.

Gianluca Cimini

]]>
Fri, 17 Nov 2017 00:52:26 +0000 http://www.gianlucacimini.it/mc/551/1/alla--maker-faire--si-racconta-il-futuro-attraverso-l-innovazione-digitale gianlucacimini2016@gmail.com (Gianluca Cimini)
Black Friday / Cyber Monday: come difendersi dall’incremento del phising online http://www.gianlucacimini.it/mc/550/1/black-friday--cyber-monday-come-difendersi-dall-incremento-del-phising-online

Con l’avvicinarsi dell’attesissimo Black Friday (che quest’anno cade il 24 novembre) si avvicina per molti utenti la giornata per eccellenza dedicata allo shopping sfrenato nonché il momento migliore per fare acquisti online grazie agli impareggiabili sconti che vengono fatti su centinaia di siti internet riguardo diversi beni di consumo.

Quella del “Black Friday” è una tradizione tutta americana nata nel lontano 1924 e coincide con il primo venerdì dopo il giorno del Ringraziamento che negli USA apre la corsa allo shopping natalizio. Una ricorrenza d’oltreoceano che, in vista dell’ormai internazionalizzazione dei mercati, ha previsto un export anche qui in Italia, dove molti siti apriranno virtualmente le porte al folle shopping pre-natalizio specialmente durante la giornata del 27 novembre chiamata “Cyber Monday”.

Tali giornate non sono attese, però, solo da chi pensa di fare regali o comprare qualcosa, approfittando della varie offerte messe in atto dai colossi online dell’e-commerce mondiale, ma anche da hacker e criminali informatici che aspettano l’incremento degli acquisti online per poterci rubare dati sensibili. Si profila infatti un picco di “phising” finanziario tramite email, messaggi e siti fraudolenti che tenteranno di rubare i dati delle carte di credito degli utenti in questi giorni.

L’allerta arriva direttamente dalla nota casa di antivirus Kasperky Lab sulla base delle rilevazioni effettuate negli ultimi anni. I dati dell’analisi di Kaspersky Lab sono chiari: in questo periodo le truffe online aumentano in media del 9% rispetto al resto dell’anno. Aumentano i consumi e quindi di conseguenza aumentano anche i malintenzionati che decidono di guadagnare proprio su quei consumi, ed il momento migliore sembra proprio coincidere con quello del “Black Friday” dal momento che di solito fa impennare gli acquisti online. Gli acquisti on-line aumentano di anno in anno ed entro il 2019 si stima che circa un quinto della popolazione mondiale farà acquisti su internet in maniera comoda, veloce e conveniente, specialmente tramite smartphone. Nel 2015 durante il Cyber Monday i consumatori hanno speso più di 3 miliardi di dollari in quella che è stata la giornata delle più grandi vendite on-line di sempre.

Il termine “phishing” è la “probabile variante ortografica della parola inglese fishing (pescare), con cui si indica una frode informatica finalizzata all'ottenimento di dati personali sensibili (password, numero di carta di credito ecc.) e perpetrata attraverso l'invio di un messaggio di posta elettronica a nome di istituti di credito, finanziarie, agenzie assicurative, in cui si invita l'utente, generalmente al fine di derubarlo, a comunicare tali informazioni riservate.” Ma come funziona questa tecnica? Niente di più semplice e subdolo allo stesso tempo, io personalmente negli anni sono stato riempito di email fasulle dove mi si richiedeva di aggiornare i dati delle mie carte di credito. La metodologia standard per un attacco di phishing consiste solitamente nell’inviare alle potenziali vittime delle email contenenti delle informazioni e magari dei loghi, tali da sembrare, il più possibile, familiari e allettanti, informando l’utente di situazioni false ma verosimili (come la scadenza di una determinata password da aggiornare, l’accettazione dei cambiamenti delle condizioni contrattuali, problemi inerenti pagamenti, incompleta o errata presenza di informazioni ed altri usuali avvenimenti del genere). Una volta catturata l’attenzione dell’ignaro utente, i truffatori indirizzano attraverso link o software dannoso a pagine fasulle, quasi del tutto simili alle interfacce di noti sistemi di pagamento con l’intenzione di ottenere i dati utili degli utenti per una frode online: numero di carta di credito, scadenza e codice di protezione della stessa. La versione più sofisticata del phishing , però, non si accontenta di copiare la grafica dei siti ufficiali con siti fasulli utilizzati come raccoglitori di dati , ma crea da zero falsi negozi online, con tanto di foto degli articoli in vendita, relativi prezzi e commenti degli utenti, con l’obiettivo di indurre le persone a comprare direttamente dal sito fasullo ed intascare subito le varie transazioni, tale tecnica prende il nome di “pharming”. Ad ottobre 2016 per esempio è stato scoperto un falso negozio online interamente dedicato al Black Friday che offriva prodotti a prezzi attraenti questo ad indicare che i criminali informatici si stavano già preparando.

Conoscendo il fenomeno possiamo imparare a difenderci dallo stesso e per questo il consiglio è di non cliccare su link ricevuti da persone sconosciute o link sospetti inviati da amici sui social network o via email, potrebbero far scaricare inconsciamente ed automaticamente malware sui dispositivi. Soprattutto non inserire i dettagli della carta di credito su siti sconosciuti o sospetti così da evitare di farli cadere nelle mani dei cyber criminali, solitamente vedere offerte troppo basse dovrebbe essere il campanello d’allarme per capire che qualcosa non va. Un’ulteriore sicurezza è quella di controllare sempre l’URL ossia l’indirizzo specifico del sito internet che si sta visitando per assicurarsi che il sito sia effettivamente quello autentico da cui vogliamo comprare e non una copia dello stesso. Questi siti, in genere, sono facilmente riconoscibili per il fatto di non adottare sistemi “Secure Socket Layer” basati su protocollo HTTPS (la presenza di un lucchetto sulla barra degli indirizzi è molto spesso la discriminante essenziale per riconoscere un sito contraffatto). Esistono inoltre buoni antivirus per PC con funzione di rilevamento frode per link ed allegati che potrebbero essere utili al vostro caso, in generale ormai quasi ogni servizio di posta elettronica provvede già a salvaguardarci ponendo nella cartella SPAM le email di dubbia provenienza. Ricordatevi che gli istituti bancari e le aziende serie non richiedono mai informazioni personali attraverso un messaggio di posta elettronica. Per quanto riguarda il fenomeno del “pharming” per salvaguardarci possiamo usare un tool molto utile chiamato WhoIS che esamina il dominio del sito internet riportando tutte le informazioni necessarie per il riconoscimento dei server, del tempo di permanenza online e di altre info complete.

Gianluca Cimini

]]>
Mon, 13 Nov 2017 18:34:23 +0000 http://www.gianlucacimini.it/mc/550/1/black-friday--cyber-monday-come-difendersi-dall-incremento-del-phising-online gianlucacimini2016@gmail.com (Gianluca Cimini)
Social Credit System: quando in Cina Black Mirror incontra il Big Brother http://www.gianlucacimini.it/mc/549/1/social-credit-system-quando-in-cina-black-mirror-incontra-il-big-brother

Black Mirror è una delle serie Tv che più hanno infiammato critica e pubblico negli ultimi anni. Particolarità della serie è quella di proiettare in un futuro non molto lontano le tendenze che si stanno evolvendo oggi nel campo dell’informatica, ovviamente in forma estrema ma spesso non troppo lontana da una possibile realtà.

Uno degli episodi che più mi ha colpito e posto domande è stato il primo della terza ragione dal titolo “Nosedive - Caduta Libera” ambientato in un futuro dove le classi sociali non sono più determinate dal reddito, ma dalla popolarità e dall’approvazione altrui: ogni cittadino è li, ma anche qui volendo, iscritto ad un social network dov’è possibile attribuire un voto in stelline (da 1 a 5) al profilo degli altri utenti influenzandone così la media. La puntata rappresenta la scalata al contrario che il personaggio di Lacie intraprende durante l’episodio: ella anela al rispetto ed al grado di prime influencer, ma tale disperata ricerca comporterà solamente il suo degrado sociale ed il suo personale declassamento fino alla totale alienazione sociale e mentale. Tutto si muove sul reale ma relazionato al virtuale. Ogni gesto, interazione sociale o altro viene possibilmente valutata attraverso questo sistema che porta le persone a “recensire” le altre e quindi ovviamente a comportarsi in determinati modi predefiniti per “acchiappare” più voti positivi possibili. Più alto è il risultato della propria media punti, più ci si rende famosi e si ha accesso a condizioni di vita migliori: anche l’acquisto di un biglietto di business class in aereo, secondo la puntata televisiva, è accessibile solamente a chi ha un valore preciso e superiore alla media del cittadino medio. Quei geni di Netflix in questa puntata hanno saputo raccontare il nostro mondo d’oggi, sicuramente estremizzato, ed aprire un occhio e sicuramente anche qualche preoccupazione su quello del futuro. Il tentativo degli autori è quello di schernire l’ossessione della reputazione online che tanti hanno, forse che tanti abbiamo, perché chiunque posta foto e status sui vari social spesso lo fa con il solo obiettivo di ricevere like e di vedere così aumentare la piacevolezza della propria immagine sociale. Già oggi i profili dei social network spesso non raccontano le nostre persone ma quello che molti vogliono rendere pubblico e l’immagine che in tanti vogliono dare di se stessi. E non sempre questa risulta uguale alla realtà dei fatti. La tecnologia già oggi sta modulando il nostre presente e la nostra mente. Le nostre abitudini sociali ed i nostri schemi mentali sono cambiati più in questi venti anni che nei precedenti duecento. Questa puntata poi racconta un futuro che non è così lontano dal nostro presente: già oggi la piattaforma “Klout” dà un punteggio ad ogni individuo a seconda della sua presenza sui social, oppure “Peeple” è stata creata con lo scopo di recensire le persone anche se poi, per fortuna direi, non ha avuto un grande successo. Black Mirror ricostruisce così la società a modo suo, semplificandola brutalmente, portandoci a farci domande importanti su quali limiti ci stiamo avvicinando e su cosa il futuro potrebbe portarci.

Il 14 giugno 2014, il Consiglio di Stato cinese ha pubblicato un documento molto inquietante chiamato “Piano di programmazione per la Costruzione di un sistema di Credito Sociale”. Il documento affrontava argomenti complessi e conteneva un’idea radicale: Cosa accadrebbe se esistesse un Rating Personale Nazionale sulla base del quale poter giudicare un buon cittadino? Stavolta non siamo in un serial Tv, ma nella realtà. Il governo cinese prevede di lanciare il suo sistema di credito sociale nel 2020 per utilizzare i “Big Data” in una sorta di “rating” collettivo che possa dare a chi governa la possibilità di conoscere più dettagli possibili sui cittadini e sulla storia rispetto allo Stato. Obiettivo: “rafforzare la sincerità negli affari del governo, nel commercio, nelle relazioni sociali e per il miglioramento della credibilità giudiziaria” ossia giudicare la fiducia, o non, dei suoi 1,3 miliardi di residenti. Pensandoci bene già ora Facebook e Google sanno tantissimo di noi, chi siamo, cosa facciamo ogni giorno, chi sono i nostri amici e quali sono i nostri comportamenti. Quello che potrebbe rendere il futuro ancora più pauroso è immaginare però che tutti questi dati possano essere utilizzati e resi pubblici da un governo centrale per determinare il livello di affidabilità e di conseguenza la nostra vita pubblica e privata come cittadini (permettendoci ad accedere o meno a certi privilegi). Anche se attualmente volontaria la partecipazione al Social Credit System (SCS) diventerà obbligatoria per il popolo cinese a partire dal 2020. Tutte le persone saranno monitorate e tracciate, il social credit sarà contenuto in un grande database, al cui algoritmo stanno lavorando 8 aziende cinesi alle quali il governo ha affidato l’incarico. I due big player che più o meno indirettamente gestiranno il Social Credit System saranno WeChat attraverso China Rapid Finance, uno dei partner e sviluppatore dell’app, e Alibaba, attraverso Sesame Credit di Ant Financial Service Group, azienda che gestisce Alipay. Ogni cittadino potrà avere un punteggio compreso tra 350 e 950 punti che si baserà su fattori specifici come: la propria storia creditizia, la capacità di adempimento di possibili adempimenti fiscali o contrattuali, le proprie caratteristiche personali, il proprio comportamento ed infine le proprie relazioni interpersonali. Nonostante questi fattori, l’algoritmo della piattaforma resterà segreto. E così chi gioca troppo ai videogiochi online, ad esempio, potrebbe essere considerato tendenzialmente pigro e irresponsabile mentre chi compra pannolini sarà probabilmente un genitore, quindi, in teoria, affidabile. Come fanno i cinesi ad accettare questo? Attraverso un particolare sistema di “reward” che nel caso di raggiungimento di punteggi alti apre le porte a privilegi speciali come prestiti agevolati o simili, un sistema che sta funzionando e sta diventando uno status symbol. Se tale progetto si concretizzerà ci troveremo davanti al primo “TripAdvisor delle persone” e per di più gestito per conto di un governo centrale (che già oggi blocca siti come Twitter, Facebook o Whatsapp). L’obiettivo pubblicizzato dal governo cinese è quello di “costruire una cultura della sincerità”, quello reale forse avrà implicazioni un pò diverse a mio avviso con il rischio di un Grande Fratello governativo camuffato come un social network. 

Gianluca Cimini

]]>
Tue, 7 Nov 2017 17:32:56 +0000 http://www.gianlucacimini.it/mc/549/1/social-credit-system-quando-in-cina-black-mirror-incontra-il-big-brother gianlucacimini2016@gmail.com (Gianluca Cimini)
Il digitale terrestre cambia: DVB-T2 con HEVC per fare spazio al prossimo 5G http://www.gianlucacimini.it/mc/548/1/il-digitale-terrestre-cambia-dvb-t2-con-hevc-per-fare-spazio-al-prossimo-5g

Con l’inserimento nella prossima Legge Finanziaria diventa ufficiale il futuro switch off per le attuali trasmissioni del digitale terrestre: il 30 giugno 2022 tutte le trasmissioni viaggeranno con lo standard DVB-T2 (con codec HEVC a 10 bit) e chi vorrà continuare a vedere la TV digitale dovrà aggiornare o sostituire il proprio dispositivo dal momento che, ad oggi, la maggior parte delle televisioni nelle case degli italiani non saranno in grado di ricevere il nuovo, e più efficiente, standard di trasmissione.

L’articolo 89 della nuova Finanziaria si intitola proprio “Uso efficiente dello spettro e transizione alla tecnologia 5G” e norma tutte le fasi e i tempi del passaggio alla nuova modalità trasmissiva TV che renderà obsoleti milioni di apparecchi in tutta Italia e spalancherà allo stesso modo il paese alla rivoluzione del 5G. Questo il motivo che porterà infatti allo spegnimento delle trasmissioni DVB-T attuali: la restrizione delle risorse frequenziali destinate alle trasmissioni TV a causa della cessione al 5G della banda 700 (questa e solo questa) stabilita dal Piano della Commissione Europea sul 5G. Serve posto infatti nelle frequenze per la nuova modalità per la telefonia mobile, e per liberarle le tv dovranno passare al DVB-T2 che appunto permette la trasmissione dei canali in meno spazio. La complessità della situazione italiana, da un punto di vista pratico, è data soprattutto dal particolare quadro di assegnazione delle frequenze alle tv e dalla grande abbondanza di reti locali. Un problema che, nei prossimi anni, andrà necessariamente districato.

Il primo step è affidato all'Autorità per le garanzie nelle comunicazioni che entro il 31 marzo 2018, dovrà definire “le procedure per l'assegnazione dei diritti d'uso di frequenze radioelettriche” (stando attenti all’annoso problema delle interferenze con i paesi confinanti dove spesso le frequenze si sovrappongono). Il passaggio successivo sarà entro il 30 settembre del 2018, quando il Ministero dello sviluppo economico provvederà all'assegnazione dei diritti d'uso della delle frequenze in banda con disponibilità dal 1 luglio 2022. Tale processo, come era stato per il passaggio dall’analogico al digitale, non sarà unisono su tutto il territorio nazionale ma avverrà in modo parcellizzato per zona geografica secondo un piano preciso che dovrà ancora essere definito da parte dell’AGCOM (il cosiddetto PNAF, Piano Nazionale Assegnazione Frequenze). Il processo operativo vero e proprio, ossia il periodo transitorio, sarà quello che inizierà il 1 gennaio del 2020 e terminerà entro e non oltre la scadenza tassativa del 30 giugno 2022, un periodo di due anni e mezzo molto più corto dello switch off dell’analogico per il quale furono necessari invece 6 anni. Inoltre, come se non bastasse, gli operatori non potranno trasmettere contemporaneamente nei due standard. E questo vuol dire che una volta compiuto il salto dovranno rinunciare subito ai telespettatori rimasti indietro. Questa volta sarà tutto molto più repentino, ammesso che tempi e scadenze siano effettivamente rispettabili.

Ma con più chiarezza cosa offre e come funziona il nuovo digitale terrestre che entrerà nelle case degli italiani? Fino ad oggi ci siamo affidati alla prima versione (DVB-T) di questo standard. DVB-T2 usa codici a correzione d'errore simili a quelli impiegati con lo standard satellitare DVB-S2, permette di ricorrere a sistemi MIMO, prevede metodiche per la riduzione della potenza di picco irradiata all'antenna trasmittente, più di 8.000 portanti; consente di usare diverse versioni di codifica e modulazioni, di aumentare le distanze tra antenne e ricevitori, di incapsulare pacchetti IP nello stream e altro ancora. La transizione al DVB-T2 arriverà insieme al passaggio al codec HEVC (High Efficiency Video Coding), che prenderà il posto dell’attuale MPEG2/MPEG4. Il nuovo codec supporta l’ultra definizione delle immagini fino a 8192x4320 pixel. E quindi il DVB-T2 in sinergia con il codec di nuova generazione permetterà di godere di una maggiore qualità video, rendere più efficiente l'uso delle frequenze a disposizione (lato broadcaster) e ridurre il rischio di interferenze. I dati ufficiali indicano a spanne un incremento prestazionale da 24 Mbit/sec (DVB-T) a 45.5 Mbit/sec (DVB-T2), che insieme a una compressione video migliore consentirà agli operatori televisivi di trasmettere più canali con maggiore qualità usando le medesime risorse. Ad oggi, per esempio, un solo MUX (multiplex) può ospitare 5/6 canali in qualità standard o al massimo 2 canali HD 720p, secondo OFCOM il DVB-T2 con codec H.264 consentirebbe la trasmissione di 4 canali HD 720p (o 1080i). La contemporanea transizione al codec H.265 (HEVC) porterebbe il numero dei canali HD 720p a 11 oppure in alternativa cinque canali 1080p. Per di più l’HEVC arriva a supportare l’8K e anche di più.

Nel 2016 secondo i dati dell’AGCOM erano tra il 15% ed il 25% le famiglie italiane con almeno un apparato ricevente con tecnologia DVB-T2, di norma tutti i televisori prodotti da Gennaio 2017 dovrebbero supportare il nuovo standard ma non è totalmente chiara la questione, per esempio i prodotti entry-level supportano lo standard del futuro ossia l’HEVC ma solo a 8 bit, mentre la tecnologia di riferimento sarà quella a 10 bit (Main 10). Bisognerà verificare quindi quale dei due profili sarà abbracciato dai network televisivi: nel secondo caso, infatti, gli utenti con un TV o decoder capace di ricevere il segnale video DVB-T2 HEVC 8 bit potrebbero avere problemi. L’idea di progredire è sicuramente interessante, (migliore ricezione del segnale, possibilità di integrare un maggior numero di canali in HD ed incrementare la qualità generale) peccato che, ad oggi, il 90% dei televisori e decoder attualmente in commercio non supportino il nuovo standard. Il collegamento è presto fatto, saremo costretti a cambiare dispositivo oppure, ricorrere all’acquisto di un decoder esterno più aggiornato.

Il consiglio per chi è intenzionato a comprare un decoder o uno smart tv di nuova generazione è quindi quello di controllare che sia in grado già da ora di supportare quello che quasi sicuramente sarà il prossimo standard per le trasmissioni televisive digitali terrestri italiane ossia: il DVB-T2 con HEVC 10 bit.

Gianluca Cimini

]]>
Sun, 5 Nov 2017 17:34:19 +0000 http://www.gianlucacimini.it/mc/548/1/il-digitale-terrestre-cambia-dvb-t2-con-hevc-per-fare-spazio-al-prossimo-5g gianlucacimini2016@gmail.com (Gianluca Cimini)
Bad Rabbit: la nuova minaccia ransomware che minaccia l’Europa http://www.gianlucacimini.it/mc/547/1/bad-rabbit-la-nuova-minaccia-ransomware-che-minaccia-l-europa

WannaCry, NotPetya e ora Bad Rabbit, non si ferma l’emergenza ransomware. L’avviso arriva direttamente dal governo degli Stati Uniti attraverso la CNN: il nuovo virus mascherato da aggiornamento di Adobe ha già preso di mira media company russe oltre a sistemi di trasporto in aeroporti e metropolitane ucraini. Il virus ha già attaccato, infatti, le aziende russe Interfax e Fontanka e in Ucraina, l’aeroporto di Odessa, la metropolitana di Kiev e il Ministero delle Infrastrutture. Ma gli attacchi si starebbe diffondendo velocemente in altri Paesi: Stati Uniti, Corea del Sud, Giappone, Germania, Turchia, Polonia e Bulgaria in primis. E così mentre il ricordo di WannaCry è ancora vivo nella memoria degli utenti, Bad Rabbit torna a far tremare anche l’Europa con una modalità che ricorda, affermano gli esperti di sicurezza, sia nel codice sia nelle modalità operative, il ransomware NotPetya che a Giugno aveva colpito l’Ucraina anche se al momento non si conosce l’identità di tutte le vittime ne da dove il malware abbia avuto origine, di certo è che la sua diffusione sia iniziata il 24 ottobre. “Si tratta di un attacco mirato contro network aziendali, questo ransomware infetta i dispositivi attraverso diversi siti di notizie russi hackerati” afferma la nota società di sicurezza informatica Kaspersky.

Il ransomware, si sta diffondendo tramite un finto installer di Adobe Flash Player e viene distribuito con l'aiuto della tecnica "drive-by attacks": mentre l'utente visita siti legittimi, ma comunque compromessi. Sono sempre più diffusi questi generi di malvertising, per il quale si rende necessario installare Flash player prima di poter visualizzare il presunto contenuto del banner. Capita che in molti così clicchino su una falsa icona di flash player, pensando che si tratti di un nuovo aggiornamento da eseguire per poi trovarsi invece infettati. Prima di bloccare i computer colpiti e richiedere un riscatto (perché ricordo è questa la particolarità di questo tipo di malware) il virus scansiona la rete per cartelle condivise con nomi comuni tentando di rubare e sfruttare le credenziali dell’utente per accedere ad altri computer tramite il protocollo di condivisione di dati di Windows SMB e lo strumento open source Mimikatz come trojan. Un’ampia gamma di file, tra cui .doc .docx e .jpg verrebbero bloccati a seguito dell’infezione. Bad Rabbit, dopo aver infettato il dispositivo, fa apparire sullo schermo un messaggio in rosso su fondo nero (stessa combinazione di colori già usata per il ransomware NotPetya). Il messaggio con la richiesta di riscatto ordina alle vittime di loggarsi in un sito Tor (Tor è un sistema di anonimizzazione gratuito che permette di nascondere il proprio indirizzo IP e la propria identità in Rete) per pagare 0,05 Bitcoin (pari a circa 239 euro). Il sito mostra inoltre un conto alla rovescia di 40 ore, scadute le quali il prezzo della decrittazione aumenterà. All’interno del codice di Bad Rabbit gli Hacker hanno voluto inserire anche particolari riferimenti al mondo “nerd” si trovano infatti riferimenti alla famosa serie TV Game of Thrones (in particolare il personaggio “Verme Grigio” ed i nomi dei tre draghi: Drogon, Rhaegal e Viserion) e al film “Hacker” del 1995 (il malware infatti nell’elenco delle credenziali di default che utilizza per colpire i computer sfrutta le quattro password più comuni secondo il film ossia: amore, segreto, sesso, dio).

Il numero degli attacchi di ransomware, secondo la società israeliana specializzata in sicurezza informatica Check Point Software Technologies, è raddoppiato a livello mondiale nei primi mesi del 2017 rispetto al 2016 ma il 99% delle organizzazioni non ha ancora messo in atto le tecnologie base per prevenire questi tipi di attacchi. L’attacco in corso infatti non viene rilevato dalle soluzioni anti-virus più diffuse e questo fa sì che gli utenti possano essere infettati senza saperlo. In assenza di controlli rigorosi e soluzioni di sicurezza adeguate, le grandi aziende ed il loro patrimonio vengono così lasciate nelle mani dei suoi utenti. Non esistono soluzioni definitive, ancora, per proteggere totalmente da questi attacchi. Ma prevenire ed educare può fare la differenza. Inutile negarlo, spesso siamo noi stessi i migliori amici dei criminali informatici. I risultati di un test approfondito condotto da Cefriel sono sconcertanti ed hanno rivelato infatti come il problema numero uno della sicurezza informatica sia il fattore umano. In questo test svolto proprio pochi giorni fa, si mettono alla prova circa 40 mila dipendenti di una ventina di imprese europee che operano nei settori bancario-assicurativo, energetico, in amministrazioni pubbliche e aziende di prodotti e servizi. Ai dipendenti sono state inviate mail contenenti un invito a visitare un sito esterno all'azienda e inserire le proprie credenziali aziendali. Le esche utilizzate nella mail erano abbastanza generiche, vagamente contestualizzate alla realtà aziendale tramite loghi, colori o riferimenti a iniziative reali, e contenevano informazioni facilmente reperibili online. I risultati sconvolgenti ci dicono che il 60% dei destinatari ha cliccato sul link ingannevole e che tra questi circa 3/4 hanno digitato le proprie credenziali senza verificare l’attendibilità del mittente. Per di più tutto questo è avvenuto nei primi venti minuti dal ricevimento della email. Sono dati questi importanti per capire quanto siamo indietro e quanto sia importante prevenire attraverso una corretta alfabetizzazione informatica non solo i nostri figli ma anche i vari dipendenti pubblici e privati, bisogna cambiare l’approccio culturale di tutti quegli utenti che navigano ogni giorno su internet, perché da sempre, ma oggi ancora di più, il rischio di finire nelle mire di hacker o malintenzionati sul web è sempre più probabile. 

Gianluca Cimini

]]>
Sun, 29 Oct 2017 11:26:56 +0000 http://www.gianlucacimini.it/mc/547/1/bad-rabbit-la-nuova-minaccia-ransomware-che-minaccia-l-europa gianlucacimini2016@gmail.com (Gianluca Cimini)
Il protocollo WPA2 è stato bucato: a rischio milioni di utenti, ma c’è un rimedio http://www.gianlucacimini.it/mc/546/1/il-protocollo-wpa2-e-stato-bucato-a-rischio-milioni-di-utenti-ma-c-e-un-rimedio

Nel mondo informatico non si parla mai di software impossibili da “bucare” semplicemente perché nessun software può essere considerato sicuro o perfetto per sempre, prima o poi infatti qualcuno troverà delle vulnerabilità a quel software, ciò è sia un bene perché permette di evolversi sempre di più verso software “migliori” ma allo stesso tempo mette gli utenti a rischio nel caso in cui non vengano rilasciate patch di sicurezza in tempi utili per bloccare qualunque possibile attacco da parte di malintenzionati sul web.

Come abbiamo già detto in passato rispetto ad altre importanti bugs a livello software, sia su Windows che su Linux, il problema maggiore è sempre stato proprio quello di informare gli utenti dell’ultima falla trovata, e soprattutto convincerli ad installare gli aggiornamenti fondamentali per sventare le nuove minacce informatiche scoperte.

In questi giorni poi ci troviamo di fronte ad una delle vulnerabilità più gravi ed importanti degli ultimi anni: una serie di falle di sicurezze all’interno di “WPA2", ovvero “Wi-Fi Protected Access 2” il protocollo di crittografia che protegge la trasmissione dei dati nelle reti “Wi-Fi”, mette potenzialmente a rischio milioni di persone, dai privati utenti ai più grandi enti statali che utilizzano questo protocollo da anni poiché considerato il più sicuro sul web, o almeno così era stato considerato fino ad oggi. Sfruttando queste vulnerabilità un hacker potrebbe entrare nella nostra rete Wi-Fi, anche se protetta da una password, accedendo a tutti i dati che ad esempio un PC o uno smartphone scambia con l’access point/router, comprese informazioni e password personali. Inoltre un malintenzionato potrebbe avere accesso senza problemi alle videocamere presenti nella nostra abitazione (collegate ad Internet) o ai contenuti (documenti, foto, ecc) memorizzati su un hard disk di rete (NAS).

KRACK (abbreviazione di Key Reinstallation Attacks) farebbe leva su una serie di vulnerabilità legate al sistema di scambio della chiave nel corso del processo di handshacking, sfruttando tale vulnerabilità sarebbe possibile decrittare il traffico, intercettare informazioni, dirottare le connessioni http, replicare i pacchetti e portare attacchi di http injection. Considerato che tale protocollo è utilizzato in tutti i modem-router casalinghi e aziendali, negli hot spot e nei collegamenti dei dispositivi IoT come le videocamere di sorveglianza, il rischio è legato a milioni di diversi dispositivi e si potrebbe tradurre in un disastro mondiale se non opportunamente gestito e corretto.

Cambiare password non servirebbe a niente e certi dispositivi (si parla del 41% dei dispositivi Android, quelli con versione precedenti alla 6.0) sarebbero suscettibili ad attacchi come il reindirizzamento verso il download di malware. La buona notizia è che a scoprire tale falla del sistema non sono stati degli Hacker ma un gruppo di ricercatori specializzati in sicurezza informatica che subito hanno dato l’allarme a livello mondiale ed hanno smosso le grandi compagnie hardware e software a trovare una soluzione adeguata per proteggere i propri dispositivi ed utenti. La palla passa quindi ai produttori di router e access point che dovranno riuscire a sviluppare e distribuire a tempo di record gli aggiornamenti per tappare la falla di sicurezza, riducendo i danni al minimo. Il problema, però, è che considerando il numero di access point presenti sul pianeta, l’impresa rischia di essere davvero titanica.

Negli ultimi anni comunque, ed aggiungerei per fortuna, si è diffusa la norma di utilizzare per tutte le connessioni delicate come i pagamenti e le comunicazioni che si presuma debbano rimanere riservate, l’uso del protocollo HTTPS (dove la S sta per “secure”) che prevede proprio un ulteriore livello di crittografia ovvero, anche se un utente fosse in grado di intercettare i dati, non sarebbe comunque in grado di leggerli, perché criptati non a livello di connessione locale ma tra i server e il proprio terminale. Il consiglio ancora una volta è quello di proteggersi attraverso l’aggiornamento dei nostri dispositivi appena le varie patch verrano rilasciate: Microsoft ha dichiarato intanto che gli ultimi aggiornamenti del 10 ottobre integrano tutto quello che serve per proteggersi dalla falla WPA2; Apple dice di stare lavorando al problema e come Google, Nest e Samsung promette una soluzione nelle prossime settimane. Difficile citare qui tutti i produttori di dispositivi con connettività Wi-Fi al mondo, quindi se avete dei dubbi il suggerimento è di andare sui siti delle aziende per verificare se esistono bollettini di sicurezza o dettagli sulle loro intenzioni, nel frattempo preferire la connettività cellulare o quella via cavo al wi-fi (specie quello pubblico) potrebbe essere una soluzione temporanea per vivere più tranquillamente la nostra navigazione sul web (è bene comunque sapere che l’attacco, riguardando le reti locali, richiede che il malintenzionato si trovi fisicamente nelle vicinanze del router o dell'access point e questo può in parte rassicurare il singolo utente, un pò meno la grande azienda). Ulteriori consigli sono: disabilitare le funzioni di condivisione file e cartelle sul computer; disabilitare le funzioni di gestione in remoto del router; disattivare funzioni non utilizzate come magari l’UPnP o il DLNA; disabilitare il broadcasting; sfruttare le reti “Guest” per gli ospiti così da avere un maggiore controllo sui dispositivi che si connettono con regolarità alla rete domestica; infine usare se possibile le VPN o Virtual Private Network per aumentare la sicurezza del collegamento. Il problema di strumenti non aggiornati tuttavia è impossibile da ignorare (molti dispositivi vetusti dubito fortemente che avranno mai e poi patch di sicurezza per risolvere questo problema).

Conscio del problema, mi auguro però che questa notizia possa fungere da campanello d’allarme per il futuro: con l’avvento del cosiddetto “Internet of Things” molti dispositivi come frigoriferi, televisori, monitor per bambini, ed altri strumenti connessi ad internet per scopi secondari, potrebbero essere facilmente attaccabili specie se non verranno opportunamente aggiornati con regolarità in attesa magari di uno standard futuro, come il “WPA3” magari che possa assicurarci più sicurezza per i tempi a venire, fino alla scoperta, almeno, della prossima “falla” da arginare.

Gianluca Cimini

]]>
Thu, 26 Oct 2017 20:46:21 +0000 http://www.gianlucacimini.it/mc/546/1/il-protocollo-wpa2-e-stato-bucato-a-rischio-milioni-di-utenti-ma-c-e-un-rimedio gianlucacimini2016@gmail.com (Gianluca Cimini)
Sulla scia del successo di Blockchain: puntare ed investire in Bitcoin http://www.gianlucacimini.it/mc/545/1/sulla-scia-del-successo-di-blockchain-puntare-ed-investire-in-bitcoin

Di termini come Bitcoin e Blockchain ne avevo già parlato a Gennaio ma è impossibile non tornare sull’argomento specie ora che anche i Big della Finanza cominciano ad interessarsi attivamente a queste nuove tecnologie che promettono di modificare in poco meno di cinque anni l’industria come l’abbiamo conosciuta fino ad oggi. E se alla fine anche la Banca d’Italia ed il Parlamento Italiano, con la commissione Finanze della Camera, hanno avviato un’indagine sulla finanza tecnologica vuol dire che sono maturi i tempi per interessarsi e puntare a questa che promette di essere una vera e propria rivoluzione per la finanza (ma non solo, perché interessa potenzialmente molti campi diversissimi tra loro come quello sanitario, delle assicurazioni, della contrattualistica e quello della gestione dell'identità digitale).

"Quando blockchain e internet degli oggetti potranno dialogare a pieno avremo transazioni certe e archivi subito disponibili a tutti gli attori. E sarà una rivoluzione” ha affermato per esempio il Global Head Disruptive Technologies and Solutions di Deutsche Bank, Roberto Mancone che segue da vicino il fenomeno, inoltre, stando ai dati di “Tractica” si ipotizza che il giro d'affari mondiale annuo delle tecnologie blockchain aumenterà da 2,5 miliardi di dollari del 2016 a 19,9 miliardi entro il 2025.

La Blockchain è conosciuta soprattutto come la tecnologia alla base del funzionamento delle criptomonete - da cui i più famosi Bitcoin - ma in realtà si tratta di un vero e proprio protocollo di fiducia su cui si può costruire di tutto. La Banca d’Italia definisce il termine Blockchain come “un processo in cui un insieme di soggetti condivide risorse informatiche al fine di costruire e aggiornare un database virtuale (la blockchain) pubblico (tutti possono vederlo) e decentralizzato (ogni partecipante ha una copia dei dati)”. Una sorta di libro mastro pubblico che si aggiorna automaticamente su ciascuno dei nodi che partecipano alla rete, e dove ogni singola transazione viene validata dall’interazione di tutti i nodi e non necessita del funzionamento garantito da un ente centrale, come avevo già specificato tempo fa. Con blockchain non abbiamo solo un documento digitale, ma la sua messa a disposizione in contemporanea a più parti. La svolta è aver immediatamente disponibile per tutti il libro mastro, senza che possa esser manomesso durante il processo. Si passa così da una digitalizzazione 'punto a punto' a una molteplicità di punti, che automaticamente riconoscono e accettano il documento digitale sottostante. Con garanzie di sicurezza evolute dal momento che per essere hackerata bisognerebbe influenzare più anelli della catena per ottenere il risultato sperato: un anello ha solo un pezzo criptato della transazione, per scomporla bisognerebbe attaccarli tutti.

Ma come si può iniziare ad investire in questo mondo e nelle possibilità che offre? Ci sono concorsi rivolti a startup che si occupano di sviluppare soluzioni innovative basate sulla tecnologia blockchain applicata al business come per esempio il “Blockchain Business Solution Accelerator” oppure guide su internet redatte da esperti del settore per iniziare ad investire in criptovalute dal momento che, per chi vuole esplorare questo mondo, ci sarà bisogno di strumenti e competenze specifiche.

I luoghi predisposti allo scambio di criptovalute si definiscono “Exchange” (ce ne sono di due tipi: quelli che accettano depositi in valuta emessa da banche centrali e quelli che accettano invece solamente criptovalute ed offrono solitamente un’offerta più ampia e variegata rispetto alla prima categoria). Diversi “Exchange” diverse esigenze, praticamente c’è un mercato aperto ed ampio per tutti noi, sicuramente è innanzitutto importante che l'Exchange in questione sia affidabile, che abbia una certa reputazione e soprattutto una certa liquidità (ossia è importante che al momento di prelevare l’ordine questo venga processato all’istante o quasi, se cosi non fosse potrebbe essere in corso una crisi di liquidità, preludio ad una possibile chiusura imminente e quindi sconsigliabile nella scelta). Ma la caratteristica più importante  rimane, insieme all’offerta di asset disponibili, soprattutto il volume di soldi che vengono mossi su quel sito in una giornata: a volumi più alti corrispondono tempi di chiusura delle operazioni più brevi. Per iniziare poi a comprare e vendere nel mondo dei Bitcoin è necessario trovare un Exchange che accetti euro ed in cambio vi dia crypto-asset. Ce ne sono diversi di siti simili e tutti offrono protocolli di sicurezza molto rigidi, visto il volume di traffico generato, e di controlli sugli utilizzatori dei siti al fine di perseguire politiche KYC (Know Your Customer) ed anti-riciclaggio per evitare di far registrare malintenzionati. Una volta registrato l’utente base potrà seguire il mercato, limitandosi anche inizialmente ad aspettare che il valore dell’investimento in bitcoin cresca. Il passaggio successivo, quello più complicato per i novizi, è invece incominciare con il trading vero e proprio attraverso il trasferimento di fondi verso Exchange che trattano solamente criptovalute. È fondamentale considerare la quantità di criptovaluta in circolazione e la quantità massima di produzione: più questa è alta, più il prezzo tenderà ad essere basso. Può quindi essere particolarmente utile confrontare il prezzo e la total supply di un asset con i medesimi dati di un altro asset. Ultime ma non meno importanti le considerazioni sulle diversificazione: oltre a diversificare per prezzo dovreste diversificare anche rispetto al market cap complessivo: è sempre ragionevole acquistare asset che abbiano mission differenti. Ricordatevi di considerare tale fattore quando investirete, indagate e scoprite quanto più possibile sul progetto in questione. Lecito è domandarsi inoltre se il management dell’asset comunica con i propri investitori attraverso un funzionale canale di comunicazione. Se la risposta è no, la situazione dovrebbe puzzare di bruciato ed una tale mancanza di trasparenza può essere il preludio ad una truffa, in quel caso spostatevi velocemente verso altri lidi ma non smettete di credere, con la dovuta attenzione, a questi investimenti virtuali. 

Gianluca Cimini

]]>
Mon, 23 Oct 2017 18:59:01 +0000 http://www.gianlucacimini.it/mc/545/1/sulla-scia-del-successo-di-blockchain-puntare-ed-investire-in-bitcoin gianlucacimini2016@gmail.com (Gianluca Cimini)
Chip Neuromorfici: quando il futuro dell’AI passa per le connessioni neurali. http://www.gianlucacimini.it/mc/544/1/chip-neuromorfici-quando-il-futuro-dell-ai-passa-per-le-connessioni-neurali

Simulare il cervello umano per apprendere attraverso l’esperienza e migliorare con il tempo il proprio funzionamento, nome in codice “Loihi” il nuovo chip “neuromorfico” annunciato dalla Intel che promette di aumentare nettamente l’efficienza nei compiti di intelligenza artificiale che coinvolgono il riconoscimento di modelli senza dimenticare l’efficienza energetica che risulterebbe circa 1000 volte maggiore dei normali chip fino ad oggi in uso.

Il futuro dell’AI potrebbe davvero passare attraverso questi particolari ed innovativi chip che, in correlazione con un apposito software, possono imparare dall’ambiente in cui si trovano a operare per raggiungere le soluzioni migliori per arrivare all’obiettivo prefissato. In questo approccio, diverso per obiettivi e strumenti da quello classico dell’intelligenza artificiale, si integrano competenze in neuroscienze, elettronica, fisica e matematica. A differenza di molte simulazioni al computer di reti neurali e di elaborazione del cervello,  il chip neuromorfo è concepito per imitare realisticamente le interazioni tra le sinapsi, che sono gli spazi collegamento tra due neuroni e rendono possibile la comunicazione. Definibili coma la versione elettronica delle reti di neuroni del cervello umano, i  “neuromorphic chips” sono in sviluppo inoltre da più di quaranta anni ma è il prossimo decennio quello che lentamente ne vedrà la diffusione di massa e ne decreterà il successo: si prevede, infatti, che entro il 2022 circa 5 milioni di dispositivi utilizzeranno chip di questo tipo (oltre agli inevitabili smartphone, i chip neuromorfici saranno utilizzati, secondo gli esperti del settore, per sensoristica sofisticata, nel campo dell’Internet of Things, e, sopratutto, per l’image recognition, che rappresenterà più del 60% del mercato totale).

Pioniera di questa nuova tecnologia, dopo anni di ricerche, è stata l’IBM con il suo “TrueNorth” un chip da 5,4 miliardi di transistor con 4096 core, in cui ogni core ha 256 neuroni artificiali (un milione in totale) e ogni neurone artificiale ha 256 sinapsi artificiali. Una piattaforma di “computing cognitivo” era stata presentata nel 2015 anche da Qualcomm con la realizzazione di “Zeroth” capace di riconoscere quasi in tempo reale la scrittura a mano anche quando questa cambia molto, (in versione semplificata già da anni la tecnologia OCR che si basa sul riconoscimenti di caratteri digitali attraverso il confronto con forme già memorizzate nel database fa qualcosa di simile ma non si perfeziona in maniera automatica con il tempo e l’utilizzo). Alla base di questi processori si trova sempre e comunque, almeno fino ad oggi, un database d’informazioni utile ad istruire il sistema su come è fatto il mondo circostante e su quali criteri utilizzare nelle varie ricerche e soluzioni possibili.

Il chip messo in progetto da Intel, grazie a qualcosa come 130.000 neuroni artificiali e 130 milioni di sinapsi artificiali per esempio, può apprendere e poi applicare quanto compreso senza connettersi al cloud, permettendo ai sistemi di adattarsi in tempo reale. Ogni neurone artificiale inoltre è in grado di comunicare con altre migliaia di neuroni ed ogni "core" può essere programmato in modo indipendente dagli altri. Michael Mayberry, direttore amministrativo di Intel Labs, promette che “il chip neuromorfico Loihi avrà un’impatto fortissimo nel campo della robotica e dell’automazione industriale” ed il punto forte di tale tecnologia a mio avviso, rispetto alle altre in sviluppo, è proprio che “Loihi” sia stata progettato per apprendere ed applicare quanto appreso muovendosi solo a livello “locale” e quindi senza alcun bisogno di connettersi al cloud. Una tecnologia quindi in grado di evolversi anche da sola, proprio come il cervello umano, imparando con il tempo a risolvere problemi sempre maggiori.

Solitamente al momento della creazione di un nuovo processore per computer si può contare già praticamente dall’inizio su una serie di strumenti e biblioteche software specializzate che, con il tempo, tendono ad ampliarsi e migliorarsi. Nel caso di questi nuovi processori, proprio a causa della loro natura così innovativa, cambia invece radicalmente anche tutto l’ecosistema che li integra e così i paradigmi di programmazione e gli strumenti informatici sono tutti da re-inventare. Con il tempo l’ecosistema, composto da sistemi innovativi singoli e multi-chip, tenderà ad essere sempre più ricco e completo grazie alla creazione di software specializzati e alla vasta comunità scientifica che si interesserà alla nuova tecnologia, università in primis. È proprio nel punto di intersezione di questi sistemi neurosinaptici innovativi, di questi strumenti software specializzati e di questa comunità scientifica che stanno emergendo quelli che saranno i nuovi orizzonti dell’informatica, lo slogan è uno: imparare dall’ambiente circostante al fine di elaborare soluzioni complesse.

Gianluca Cimini

]]>
Wed, 4 Oct 2017 18:48:00 +0000 http://www.gianlucacimini.it/mc/544/1/chip-neuromorfici-quando-il-futuro-dell-ai-passa-per-le-connessioni-neurali gianlucacimini2016@gmail.com (Gianluca Cimini)
Automobili come gli smartphone, il futuro si basa sugli aggiornamenti software http://www.gianlucacimini.it/mc/543/1/automobili-come-gli-smartphone-il-futuro-si-basa-sugli-aggiornamenti-software

I modelli di business futuri per il mondo automobilistico stanno vertendo verso nuove  forme di utilizzo, vendita, e proprietà. A seguire le ultime notizie in questo campo non mi sorprenderebbe se un giorno l’uso dell’auto come mezzo di locomozione privato sparisse del tutto. Nuove formule di affitto e car-sharing sono in continua crescita. Quello che mi sorprende però non è solo l’idea che un’auto possa smettere di avere un unico proprietario ma, sopratutto, l’idea che tale mezzo di locomozione sia destinato a diventare, un giorno, sempre più simile all’uso che facciamo oggi di una app o di un videogames. In futuro, probabilmente, i mezzi messi in vendita non si differenzieranno moltissimo a livello hardware ma presenteranno prezzi differenti a seconda delle funzioni, a livello software, di cui disporranno. Riprendendo il confronto con il mondo dei videogames, questo succede già oggi: compriamo un gioco, fisico o virtuale, ad un prezzo predefinito che contiene la parte principale della storia ma, il più delle volte, se vogliamo accedere a contenuti premium aggiuntivi dobbiamo sborsare dei pagamenti extra (persino quando tali contenuti sono già inclusi dentro il software che abbiamo acquistato ma risultano inaccessibili volutamente per diverse limitazioni di marketing). E così le auto del futuro, come i videogame di oggi, saranno commercializzate in un unico modello e vendute ad un prezzo diverso a seconda delle funzioni sbloccate di cui disporranno.

Tale particolarità si è fatta presente quando, nei giorni passati, l’uragano Irma si è abbattuto sull’America Centrale e la Tesla, nota casa automobilistica di Elon Musk, ha deciso di sbloccare “solo temporaneamente”, tramite un aggiornamento OTA, la massima capacità delle batterie delle Model X60D e delle Model S60 e 60D per permettere di aumentare l’autonomia delle auto di tutti i residenti della Florida così da consentire loro di raggiungere zone più sicure con una sola ricarica. Il fatto che a livello di marketing, e anche di tecnologia, si possa prendere una tale decisione da sicuramente da pensare. Lo sblocco della capacità delle batterie in questione, limitate a livello software all’80% per contenerne il costo rispetto ai modelli più completi, normalmente sarebbe costato ad un utente, che avesse voluto un autonomia maggiore della sua auto, circa 3000 dollari. Come quando scarichiamo un’app gratuita sul nostro smartphone e ci vengono poi richiesti soldi aggiuntivi per utilizzare tutte le varie funzionalità o per eliminare la fastidiosa pubblicità che compare ogni tanto. Il modello di vendita, così come è cambiato per videogames, app e smartphone cambierà quindi probabilmente anche nel campo automobilistico. Non pagheremo quindi più l'automobile in sé, né gli eventuali optional, ma acquisteremo invece progressivamente il diritto di sfruttarne le capacità, ovviamente a seconda delle nostre esigenze e disponibilità.

Senza la necessità di passare in officina basterà in futuro un semplice click sullo smartphone per aggiornare automaticamente il software del veicolo interessato, ne è già convinta la celebre azienda tedesca Bosch che sta lavorando da mesi ad un sistema di distribuzione degli aggiornamenti software per l’industria automobilistica di tipo “Over The Air” (OTA). Aggiornamenti che sfrutteranno nuove tecnologie di cifratura che li renderanno più sicuri e garantiranno maggiore velocità ed affidabilità al mezzo di trasporto evitando la perdita di tempo, per case costruttrici e rispettivi clienti, di visite programmate in officina. Cambieranno così anche le varie forme di commercializzazione del mezzo di locomozione: ci attenderà forse non un diretto acquisto dell’automobile ma solo una fruizione di un particolare servizio a esso dedicato.

Tramite aggiornamenti software inoltre le auto del futuro espanderanno le proprie funzioni e miglioreranno le proprie prestazioni: basta guardare l’ultimo aggiornamento di sistema di Tesla che porta già una gestione dello sterzo più efficiente, così come funzioni TACC (traffic aware cruise control) che consentono all’auto di controllare accelerazione e frenata nel traffico cittadino, parcheggi in perpendicolare e non solo in parallelo ed illuminazioni dinamiche dello schermo e dei pannelli degli strumenti, tante per citarne alcune. E tutto questo tramite un normalissimo aggiornamento OTA. E gli aggiornamenti del futuro secondo Elon Musk, patron di Tesla, porteranno un giorno le nostre automobili a raggiungere il grado di “guida autonoma di livello 5” ossia quella nella classificazione SAE in cui ogni auto sarà equipaggiata a bordo di ciò che serve per guidare in modo autonomo senza nessun intervento da parte del conducente umano. Anche tale funzione sarà a pagamento? Probabilmente si, con un aggiornamento software non meglio precisato preceduto da un esborso ulteriore di 8.000 dollari verso le casse di Tesla. Il miliardario sudafricano ha spiegato che per arrivare al livello 5 servirà ancora del tempo, ma in base ai test in corso il sistema è già almeno due volte più sicuro rispetto ai guidatori umani. Nel frattempo il software lavorerà in background, raccogliendo dati utili al proprio miglioramento in attesa di essere presentato funzionante al pubblico di mezzo mondo. Più elettronica, più funzioni, più software, sarà questo il futuro dell’industria automobilistica?

Gianluca Cimini

]]>
Mon, 25 Sep 2017 19:49:14 +0000 http://www.gianlucacimini.it/mc/543/1/automobili-come-gli-smartphone-il-futuro-si-basa-sugli-aggiornamenti-software gianlucacimini2016@gmail.com (Gianluca Cimini)
Nuovi media e nuovi pericoli http://www.gianlucacimini.it/mc/542/1/nuovi-media-e-nuovi-pericoli

Fake – news, cyberbullismo, privacy ... il mondo dei media attraversa un momento di grande sviluppo e di grandi pericoli.

Sembra una rivoluzione inarrestabile ed imprevedibile verso nuove modalità di diffusione delle informazioni.

La cosiddetta “post –verità”, basata sulla diffusione di notizie completamente false, le cosiddette “bufale” o “fake news”, spacciate per autentiche ed in grado di influenzare fortemente l’opinione pubblica.

Da fruitore dei social networks cerco di essere sempre attento alle fonti da cui provengono le informazioni.

Siamo in una fase di transizione da un vecchio ad un nuovo modello di comunicazione dove anche i giornalisti giocano un ruolo importante. Essi oggi si trovano a dover discernere con molta attenzione le migliaia di fonti di provenienza delle informazioni, cosi da poter riacquisire un ruolo credibile ed autorevole.

Da più parti viene sollecitata una forma di intervento pubblico per contrastare il mancato controllo da parte dei grandi social networks dove si creano e moltiplicano, con la tipica viralità, le fake news.

Qualcosa sembra muoversi con un controllo più accurato da parte di Facebook per evitare le manipolazioni delle news impedendo la modifica dell’anteprima degli articoli.

Sistemi di intelligenza artificiale sofisticati permettono di creare contenuti audio e video dagli effetti pericolosissimi.

E qui entra in gioco, oltre al controllo sulla veridicità delle fonti di informazioni, la tutela della privacy e dei minori.

Cyberbullismo, pedopornografia, grooming, cyberstalking tutti nuovi termini anglosassoni che rappresentano il nuovo pericolo delle famiglie.

Il Parlamento Europeo ha più volte denunciato i nuovi rischi ed i nuovi tipi di abusi della rete ed ha proposto quindi l’adozione di misure comunitarie tali da garantire un utilizzo sicuro di internet al fine di proteggere “l’integrità fisica, mentale e morale dei cittadini e dei bambini minacciata dall’accesso a contenuti inadeguati”.

L’alfabetizzazione mediatica e l’educazione digitale sembrano essere ormai indispensabili nelle scuole e nelle famiglie.

Troppi genitori non conoscono la seconda vita virtuale dei propri figli….

Vicky Davis, un’insegnante americana esperta di nuove tecnologie, sostiene su Edutopia, un sito USA dedicato all’educazione, che portare Facebook e Twitter a scuola non significa avere una classe di ragazzi e ragazze distratti dai propri smartphone. Perché social network non va confuso con socializzazione, ed esistono almeno dodici modi giusti che i docenti possono adottare per usare in maniera proficua le piattaforme digitali in classe. Il decalogo della Davis stimola i docenti a «ricordare che siamo nel 21° secolo» e che è inutile continuare a predicare che è necessario aiutare i bambini a superare il gap digitale, se poi gli insegnanti non sono i primi ad essere disposti a comunicare online. 

Gianluca Cimini

]]>
Sat, 23 Sep 2017 20:15:05 +0000 http://www.gianlucacimini.it/mc/542/1/nuovi-media-e-nuovi-pericoli gianlucacimini2016@gmail.com (Gianluca Cimini)
Formula E 2018: parte l’assalto di piloti e case automobilistiche all’elettrico http://www.gianlucacimini.it/mc/541/1/formula-e-2018-parte-l-assalto-di-piloti-e-case-automobilistiche-all-elettrico

Tutti la vogliono, tutti vogliono esserci, sale ancora di più la febbre da Formula E. Le ultime gare nordamericane del Campionato Mondiale che si è appena concluso hanno visto un record di spettatori, incassi ed interessi inaspettato. Ed il numero di campioni di Formula 1 che decidono di mettersi alla prova nel campo delle monoposto elettriche diventa sempre maggiore. La carta vincente di questo nuovo settore potrebbe essere proprio la sua particolarità unica, che la differenzia dalla più famosa, almeno fino ad oggi, Formula 1, ossia la mancanza totale di inquinamento grazie a batterie e motori al 100% elettrici e sopratutto la scelta di correre su circuiti cittadini.

A tal riguardo grande è l’attesa, per me e per molti esperti del settore, per il primo GP italiano di Formula E che si svolgerà a primavera 2018 tra le strade dell’EUR a Roma (come avevo già scritto mesi fa in anteprima). Più precisamente il 14 aprile 2018. L’accordo è su tre anni, ma l’idea è quella di portare il Fia Formula E World Championship nella capitale per almeno i prossimi cinque anni. “L’ePrix di Formula E è un evento di questo tipo, tra l’altro sostenibile e innovativo, che attraverso un circuito di 2,8 km e 19 curve è un efficacissimo strumento di promozione internazionale delle nostre attività” ha affermato il Presidente di EUR SPA Roberto Diacetti riguardo alla gara capitolina. Un’iniziativa dall’indotto economico importante, ma anche e soprattutto un volano per la mobilità elettrica in Italia, ancora tutta da esprimere nel suo enorme potenziale. Si parla infatti di un indotto stimato, in città paragonabili alla nostra capitale, dai 40 ai 50 milioni di euro all’anno. Introiti importanti, garantiti anche da almeno 40 mila presenze a livello di pubblico, composto da amanti non solo delle quattro ruote, ma anche e soprattutto dell’innovazione in chiave green.

Alla sua quarta stagione la Formula E presenterà inoltre delle novità sostanziali su regolamento e partecipanti: la potenza massima applicata dalle monoposto nelle gare aumenterà da 170 a 180 kW, mentre il picco per le qualifiche rimarrà invariato a 200 kW. Il Visa Fastet Lap Award potrà essere conquistato d’ora in poi solo da coloro che finiranno nella Top 10. Ed infine sarà eliminata una sessione di prove negli eventi a doppia gara mentre verranno aggiunte due giornate di test, del quale una sarà esclusiva per i rookies.

I prossimi anni, infine, non potranno che attirare ancora di più il pubblico a questo evento. Sponsorizzazioni ed investimenti stanno crescendo a ritmi molto alti: Audi, BMW, Porsche e Mercedes entreranno nella grande competizione e si sfideranno con le altre compagnie automobilistiche già presenti, in primis la francese Renault che ha già conquistato tre volte il titolo costruttori e si è impegnata fin dalla nascita del nuovo settore, nel 2013, per arrivare ai vertici della nuova competizione. La decisione delle compagnie segue lo spostamento dell’industria automobilistica globale verso le auto elettriche, evidente nella scelta di Volvo di abbandonare i motori tradizionali e di produrre solo auto elettriche entro il 2019.

“Ormai tutti i veicoli stanno diventando elettrici e, a breve, tutti guideremo macchine del genere in città. Ad esempio, in Gran Bretagna si è appena deciso che in dieci anni ci saranno in circolazione soltanto auto ibride o elettriche. La Formula E rappresenta dunque un’interessante start-up che si accorda perfettamente con la strategia pianificata da Daimler”, ha aggiunto Toto Wolff, direttore della Mercedes.

Da molte compagnie la Formula E è ancora vista come un terreno di prova per tutte le nuove tecnologie di auto elettriche d’avanguardia, un grande laboratorio a cielo aperto dove sviluppare elementi come batterie e sistemi di gestione dell’energia. La Formula E è in effetti, oltre allo spettacolo che offre, un incubatore di ricerca e sviluppo in molti ambiti: dalla mobilità elettrica alle rinnovabili, dai sistemi di accumulo di energia ai nuovi tipi di gestione “intelligente” delle reti elettriche e delle conurbazioni. Insomma se ancora gli investimenti e le velocità della più famosa Formula 1 non son stati raggiunti tutto il settore è in netta evoluzione e già in poco tempo la qualità e durata delle batterie elettriche sta nettamente migliorando, diventando con il tempo più potenti e meno costose, tanto che gli analisti sostengono che una versione elettrica di una berlina familiare standard potrebbe diventare più economica di quella a motore convenzionale. Anche se la visibilità non è ancora paragonabile a quella di altre gare, garantisce costi più che ragionevoli. La mobilità elettrica è il futuro della mobilità metropolitana e il circuito è una vetrina senza paragoni per i marchi coinvolti.

Gianluca Cimini

]]>
Sun, 17 Sep 2017 10:02:27 +0000 http://www.gianlucacimini.it/mc/541/1/formula-e-2018-parte-l-assalto-di-piloti-e-case-automobilistiche-all-elettrico gianlucacimini2016@gmail.com (Gianluca Cimini)
Economia e cicli storici http://www.gianlucacimini.it/mc/540/1/economia-e-cicli-storici

Rileggendo Smith, Marx, Keynes, Kondratev, noti ed importanti economisti dell’età moderna, possiamo comprendere molti aspetti della situazione economica attuale.

Adam Smith (1723 – 1790), filosofo scozzese, fautore del liberismo, della divisione del lavoro come presupposto dell’aumento di produttività e del meccanismo libero di “domanda – offerta”, l’austriaco Joseph Schumpeter (1883 – 1950),  teorico dell’autodistruzione dell’economia, l’inglese John Keynes (1883 – 1992), sostenitore della politica di aumento della spesa pubblica per combattere la disoccupazione ed infine Nikolaj Kondratev (1892 – 1938).

Nikolay Kondratev per primo individuò l’esistenza, fin dalla prima rivoluzione industriale della fine del ‘700, di cicli economici cinquantennali costituiti da una fase ascendente di circa 25 anni, nella quale le nuove tecnologie stimolano gli investimenti, ed una fase discendente della stessa durata caratterizzata prima da una minicrisi, poi da una depressione nella quale il capitale non viene più investito essendo congelato nel sistema finanziario.

Riorganizzando mentalmente i periodi storici possiamo dire che il capitalismo industriale è stato attraversato da quattro cicli cinquantennali.

Il primo caratterizzò la prima metà dell’800 sotto la spinta della prima rivoluzione industriale ed interessò Inghilterra, gli Stati tedeschi ed in parte la Francia.

Il secondo si realizzò nella seconda metà di quel secolo, grazie allo sviluppo della meccanizzazione, delle ferrovie e delle scoperte tecnologiche.

Il terzo ciclo cinquantennale fu sostenuto dall’ingegneria elettrica, dalla produzione delle fabbriche e dall’industria pesante, registrò due periodi di depressione decennali, dalla fine della prima guerra mondiale alla fine degli anni ’30. Durante il secondo conflitto, si verificò in Europa e Giappone una tragica distruzione di capitali.

Nel quarto ciclo, partito dal Piano Marshall nel 1946 fino al 2006, assistiamo ad un “boom economico” senza precedenti, grazie all’automazione delle fabbriche, allo sfruttamento dell’energia nucleare, all’ingresso del computer nelle attività quotidiane, alla rivoluzione informatica.

Nel 2006, l’espansione si blocca dando vita ad una grande crisi che porterà ad una lunga fase di stagnazione dovuta a diversi fattori: l’automazione che gradualmente ha cancellato molte professioni, squilibri economici profondi, delocalizzazione delle fabbriche, dilagante consumismo, forte debito pubblico non rimborsabile.

Ma come si esce da questa situazione stagnante da oltre 10 anni?

Non rimane che attendere fiduciosi per vedere chi sarà costretto da improvvisi eventi drammatici a dare inizio a nuovi impulsi aprendo così la strada al nuovo cinquantennio. Ogni crisi è un’opportunità!

Gianluca Cimini

]]>
Mon, 4 Sep 2017 16:47:55 +0000 http://www.gianlucacimini.it/mc/540/1/economia-e-cicli-storici gianlucacimini2016@gmail.com (Gianluca Cimini)
Il futuro dei motori è elettrico http://www.gianlucacimini.it/mc/539/1/il-futuro-dei-motori-e-elettrico

Ho colto con piacere la notizia dello sbarco della Formula E nel quartiere Eur a Roma il 14 Aprile 2018.

Sembra che il circuito di quasi tre chilometri si snoderà su via Cristoforo Colombo fino all'altezza del laghetto dell'Eur.

Sarà anche un’occasione per le case automobilistiche di promuovere iniziative sulla mobilità elettrica ed ecosostenibile, ormai sempre più vicina a noi.

Questo tipo di competizione dedicata alle monoposto elettriche si afferma sempre di più ma tra gli appassionati colgo ancora un certo scetticismo.

Forse le prestazioni non sono ancora considerate degne di nota, forse manca il rumore roboante…

Penso sia importante però capire gli elementi che rendono interessanti le gare di Formula E perché ritengo che ci sia sempre meno da invidiare alle corse più note di Formula 1.

Durante le gare di Formula E è facile assistere sorpassi avvincenti soprattutto nei tracciati più larghi e articolati. I piloti della Formula E non si risparmiano e provano a portare a casa il risultato senza esclusione di colpi rendendo la gara estremamente emozionante per lo spettatore.

La Formula E ha sfruttato la silenziosità delle sue vetture per portare le gare in posti apparentemente inaccessibili come nel cuore delle grandi capitali mondiali. Le “sfide” tra le auto si snodano su scenografie e panorami mozzafiato sicuramente meno freddi dei classici circuiti permanenti monocolore.

La Formula E offre il terreno ideale per nuove sperimentazioni e per sviluppare nuove soluzioni tecnologiche utili anche per il mondo delle auto di serie.

Ottima è la partnership con Enel per organizzare eventi totalmente “CO2 neutral” con tecnologie digitali intelligenti che permettono di controllare ogni consumo all’interno del circus  alimentando con energie rinnovabili le monoposto, i box delle scuderie e gli spazi del circuito.

“Last but not least” teniamo presente che assistere ad una gara della Formula E non presenta costi inaccessibili come la Formula 1 e può quindi avvicinare chiunque al magico mondo dell’automobilismo.

Gianluca Cimini

]]>
Thu, 31 Aug 2017 19:54:28 +0000 http://www.gianlucacimini.it/mc/539/1/il-futuro-dei-motori-e-elettrico gianlucacimini2016@gmail.com (Gianluca Cimini)
La pet economy cresce http://www.gianlucacimini.it/mc/538/1/la-pet-economy-cresce

Un articolo su un noto settimanale mi ha aperto un mondo che non conoscevo bene…la “pet economy”!

Il mercato che ruota intorno agli animali domestici vale, solo in Italia, oltre 3,5 miliardi di euro. E sembra che ogni proprietario ne spenda circa 100 euro l’anno per il proprio cucciolo.

Un’amica veterinaria mi ha confermato queste cifre e sembra che il trend sia ancora maggiore…

Siamo pronti infatti a risparmiare su tutto ma per il nostro pet non badiamo a spese. Sarà la crisi dei legami affettivi, dei matrimoni, delle professioni? In un mondo di poche certezze, la gioia che ci regala un animale domestico apre il cuore e le tasche! Il mercato mondiale degli animali domestici ha raggiunto 160 miliardi di euro. Un mondo di beni e servizi mutuati dal mondo umano. Le assicurazioni si adeguano a questo mercato in crescita, nascono scuole e percorsi educativi come per i bambini, alberghi e spiagge dedicate, centri estetici per cani e gatti.

Analizzando i profili socio – demografici dei proprietari si nota che la maggior parte sono single di ogni età, coppie senza figli o con figli già grandi. Ho trovato interessante leggere che il cane o il gatto viene usato come “terminale relazionale” ossia come occasione per uscire tre volte al giorno ed avere relazioni sociali con altri proprietari e scambiare quattro chiacchere al parco.

La percezione dell’animale è vissuta quindi come estensione del proprio sé o di un membro della famiglia. Da non trascurare che la vita media di un animale domestico è raddoppiata rispetto a prima grazie ad una migliore alimentazione, cure e terapie maggiori.

Fra le varie specie di pet, la fanno da padroni i gatti con 70 milioni di esemplari, i cani sono più di 62 milioni.

Ai francesi piacciono i felini, mentre gli inglesi sono più fedeli ai cani. All’Italia spetta il primato degli uccelli ornamentali con 12,9 milioni mentre la Germania ha la più larga fetta di roditori insieme a pesci ed anfibi.

Negli Stati Uniti, secondo l’American Pet Products Association, la spesa annua degli americani in questo settore toccherà i 62,5 milioni di dollari. Dietro a Stati Uniti ed Europa, l’America Latina è oggi il terzo mercato mondiale.

Prontovet24 è una start up nata a Taranto che consente ai proprietari di animali da compagnia di prenotare la visita di un medico veterinario a domicilio in ogni momento della giornata, h24.

Insomma il valore sociale degli animali domestici è inconfutabile e la passione per gli animali e per tutto ciò che li riguarda rappresenta una fonte di ispirazione imprenditoriale sempre più interessante…

Gianluca Cimini

]]>
Mon, 28 Aug 2017 07:42:07 +0000 http://www.gianlucacimini.it/mc/538/1/la-pet-economy-cresce gianlucacimini2016@gmail.com (Gianluca Cimini)
Le mille vite dell’alluminio - di Gianluca Cimini http://www.gianlucacimini.it/mc/537/1/le-mille-vite-dellalluminio---di-gianluca-cimini

Economico, duttilissimo, capace di generare un processo di riciclo senza fine, l’alluminio è uno dei materiali più pomettentii della moderna “circular economy”.

Le qualità dell’alluminio costituiscono la base di molti business in Europa e nel mondo. E’ un metallo che richiede pochi investimenti per la sua lavorazione e, data la sua adattabilità, si presta ad un numero alto di impieghi ma è anche facilissimo da riciclare e garantisce un suo continuo riutilizzo.

L’Italia occupa un posto di rilievo nell’economia che ruota attorno a questo metallo.

Nel mondo risulta terzo paese (assieme alla Germania), dopo Stati Uniti e Giappone. Secondo i dati del CiAL(Consorzio Imballaggi Alluminio), il nostro paese è primo in Europa per quantità di rottami in alluminio avviati a riciclo: oltre 927 mila tonnellate nel solo 2016.

Nello stesso anno, sempre secondo i dati del consorzio, sono state immesse sul mercato italiano circa 66 mila tonnellate di packaging in alluminio. Di queste, circa 50 mila tonnellate sono state riciclate (pari al 73,2% dell’immesso a mercato) mentre le rimanenti, composte per lo più da rifiuti da imballaggi sottili, sono state avviate a recupero energetico.

Materiale leggerissimo ed estremamente malleabile, presente in molte leghe con altri metalli è anche un ottimo conduttore resistente alla corrosione dell’acqua e di molte sostanze chimiche. In natura lo si trova nell’acqua potabile ed in alcuni alimenti come cereali e verdure.

La sua attitudine al riciclo lo presta quindi ad un riuso infinito. 

Non solo fra le mura di casa ma anche i grandi marchi si sono fatti convincere dalle molteplici potenzialità di questo materiale.

Jaguar, il marchio di lusso dell’automobilismo, ha sviluppato “XE”, una berlina in alluminio riciclato realizzata grazie al progetto Realcar.

Tra il 2015 e il 2016, Jaguar ha recuperato più di 50 mila tonnellate di scarti di alluminio (pari a circa 200 mila scocche di “XE”) e le ha reintrodotte nella catena di produzione. In questo modo, la Jaguar ha ridotto il fabbisogno del materiale e ha evitato l’immissione in atmosfera di più di 500 mila tonnellate di CO2.

Apple punta ad un sempre maggiore utilizzo di questo elemento che garantirebbe una notevole diminuzione dell’impatto ambientale dell’industria degli smartphone e dei tablet, drammaticamente sempre più inquinante.

Rispetto alle sue qualità uniche, il successo dell’alluminio dovrebbe farci riflettere soprattutto riguardo ai profitti del riciclo. In Europa ci abitueremo sempre di più di “circular economy”. Come ha detto il commissario per l’ambiente dell’Unione Europea, Karmenu Vella, “se vogliamo essere competitivi dobbiamo trarre il massimo dalle nostre risorse, reimmettendole nel ciclo produttivo invece di collocarle in discarica come rifiuti”. Le norme della “circular economy” andranno quindi ad avere un effetto pratico nella vita dei cittadini europei sempre più preponderante.

Gianluca Cimini

]]>
Tue, 15 Aug 2017 07:42:07 +0000 http://www.gianlucacimini.it/mc/537/1/le-mille-vite-dellalluminio---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Il cliente comanda: l’attention economy http://www.gianlucacimini.it/mc/536/1/il-cliente-comanda-lattention-economy

Immaginate di avere un’idea, un servizio o un prodotto e nessuno, tranne voi, lo conosce.

Quindi il vostro prodotto non esiste sul mercato.

Per essere percepiti bisogna attirare l’attenzione dei destinatari ed attirare l’attenzione è un prerequisito per fare business, per dare forma alla società, per “fare il mercato”.

Le nuove prospettive dell’attention economy ci dicono chiaramente che bisogna lavorare sull’attenzione dei consumatori saturi di notizie ed informazioni.

Se l’informazione non ha limiti di crescita non possiamo dire lo stesso della nostra attenzione che non è una risorsa infinita ed è contesa fra milioni di attori ed interlocutori.

Herbert Simon, Premio Nobel per l’economia, nel 1971 già notò che la disponibilità eccessiva di informazioni genera scarsità di attenzione. L’attenzione pubblica quindi, offerta dai mezzi di comunicazione e dai canali di business, è qualcosa di immateriale, costoso e prezioso.

I nuovi media offrono contenuti gratis per i quali ricevono in cambio attenzione e proventi pubblicitari.

Un consumatore che si abbona ad un servizio gratuito ha la percezione di non pagare, ma di fatto, concede qualcosa di incredibilmente prezioso e dal valore economico notevole: tempo, attenzione e dati sensibili.

La nuova unità di misura quindi è la “quota di attenzione” che rappresenta una concreta possibilità di analisi per il marketing, e che parte dallo studio delle reazioni cognitive ed emozionali dei consumatori e fruitori.

L’eyetracking è uno strumento che misura i punti di attenzione così come altri nuovi stratagemmi misurano l’interesse inconscio dei consumatori.

Se esiste un’economia dell’attenzione, esiste allora anche un’economia della disattenzione quando il rumore informativo di fondo rappresenta una condizione permanente.

Preoccupante è l’effetto dell’economia della disattenzione e responsabile, in gran parte, dell’impoverimento culturale che favorisce la diffusione ed il successo delle “fake news o bufale”: notizie commerciali deviate, non verificate e di cattiva e bassa qualità d’informazione.

Gianluca Cimini

]]>
Sat, 5 Aug 2017 18:46:04 +0000 http://www.gianlucacimini.it/mc/536/1/il-cliente-comanda-lattention-economy gianlucacimini2016@gmail.com (Gianluca Cimini)
Il management della resilienza http://www.gianlucacimini.it/mc/535/1/il-management-della-resilienza

La letteratura e cultura della resilienza si diffonde sempre di più anche da noi e soprattutto in azienda. Ripensare quindi la persona e l’organizzazione in chiave di resilience management.

Il termine “resilienza” è stato preso in prestito dalla metallurgia ed indica la capacità di un metallo di resistere alle forze che vi vengono applicate. E’ l’opposto della fragilità e vulnerabilità. Negli essere umani la resilienza è innata, anche se non tutti sanno come accedervi.

Da un punto di vista “etimologico” deriva dal latino “resalio”, configurabile nel gesto del “risalire sull’imbarcazione capovolta dalla forza del mare”. Una capacità quindi di andare avanti senza arrendersi nonostante le difficoltà.

Una persona dotata di buona resilienza è colui che sa persistere nel perseguire obiettivi sfidanti, è un ottimista  di natura, sa “leggere” gli eventi negativi come momentanei e circoscritti e dinanzi a sconfitte e frustrazioni non perde mai comunque la speranza.

Essere resilienti in un mondo instabile è ciò che ci viene chiesto ogni giorno sempre di più.

In ambito aziendale la resilienza si identifica nella capacità dell’azienda stessa di affrontare il cambiamento in maniera costruttiva.

Per sopravvivere alle incertezze, alle turbolenze e criticità del mercato le aziende debbono essere flessibili. Un’azienda resiliente è capace di reagire positivamente allo stress ambientale, alle situazioni avverse ed inattese aprendosi allo sviluppo di nuove funzionalità con una “vision” che sappia andare oltre il beneficio immediato e con un grande senso del futuro.

Ma la costruzione di una cultura della resilienza all’interno di un’organizzazione inizia dall’alto. L’impegno del top management nel potenziare la resilienza e la reattività di un’impresa dovrebbe essere evidente per tutti i dipendenti.  Per generare organizzazioni resilienti però non basta lavorare su un singolo fattore, per quanto critico. E’ un’azione coordinata che coinvolge persone, struttura, processi e prassi.

Chiedersi sempre: “cosa faremmo se capitasse anche a noi?”

Il problema più evidente però non sempre corrisponde al rischio più grande. Pensare sempre al rischio in funzione sia delle probabilità, sia delle conseguenze. Il rischio è calcolato come la probabilità moltiplicata per le conseguenze, pertanto una conoscenza delle possibili conseguenze è fondamentale per prendere decisioni consapevoli, in tempi brevi, in base al rischio.

La pianificazione della risposta alle crisi è fondamentale per ogni organizzazione e per qualsiasi settore di attività, e rischi ed incertezze sono le pedine da giocare nella partita della sopravvivenza aziendale.  

Qualcuno dice che il bello della vita è alzarsi la mattina con un problema da risolvere…..

Gianluca Cimini

]]>
Sun, 30 Jul 2017 11:27:22 +0000 http://www.gianlucacimini.it/mc/535/1/il-management-della-resilienza gianlucacimini2016@gmail.com (Gianluca Cimini)
Thunderbolt pronto ad evolversi: prestazioni top e maggiore diffusione http://www.gianlucacimini.it/mc/534/1/thunderbolt-pronto-ad-evolversi-prestazioni-top-e-maggiore-diffusione

Anche se il futuro per molti si muove ormai sul Cloud, il collegamento fisico tra dispositivi informatici rimane imprescindibile in molti casi particolari di trasferimento dei dati. Dal tempo dei floppy le cose sono nettamente cambiate, con capacità di storage estremamente moltiplicate nel tempo. Mentre crescevano le dimensioni di documenti e programmi così, allo stesso tempo, la necessità di velocizzare anche il trasferimento di questi file da un dispositivo all’altro si è fatta sempre più importante. E le tecnologie per il trasferimento dei dati si sono affinate nel tempo cercando di convergere poi in standard comuni per una migliore diffusione  e ottimizzazione sia per produttori sia per consumatori finali. La vera trasformazione, a mio avviso, si è avuta con l’avvento dei primi dispositivi che hanno abbracciato il cosiddetto “Universal Serial Bus” che con la sua evoluzione 2.0 riusciva a raggiungere, sulla carta, una velocità di 480 Mbps. Abbastanza per gli standard del tempo, impossibili per quelli odierni. Così l’evoluzione tecnologica ha portato l’avvento della versione successiva ossia la USB 3 (capace di velocità pari a 5 Gbps nella versione 3.0 e di velocità pari a 10 Gbps in quella 3.1) fondamentale per spostare file di grandi dimensioni come per esempio file video HD in pochi secondi da un dispositivo all’altro. Il successo di una tecnologia si basa da sempre sia sulla sua performance sia, soprattutto, sulla sua diffusione. Più prodotti abbracciano la nuova tecnologia e più questa avrà possibilità di affermarsi sul mercato, specialmente se tale tecnologia viene integrata nei prodotti di base, come schede madri o processori, e se il protocollo utilizzato risulta gratuito e libero da costi di licenza. Il 2018 potrebbe essere per questo l’anno della diffusione della tecnologia “Thunderbolt - The USB-C that does it all” sfruttando il motto con cui viene ora pubblicizzata.

« Vediamo Thunderbolt come un successore di USB 3.0. In un certo senso, vorremmo realizzare l'unico cavo di cui avrete bisogno » (Kevin Kahn, Intel senior fellow all'IDF 2011).

Thunderbolt 3 sta rivoluzionando il nostro modo di pensare alla connettività e alle prestazioni. Come per qualsiasi tecnologia innovativa, è normale che ci sia un po’ di confusione su ciò che questo significa per i nostri dispositivi attuali e su come sfruttare al meglio queste nuove possibilità. Sviluppata insieme da Intel ed Apple (e uscita in commercio proprio sui più recenti prodotti di Cupertino) la tecnologia Thunderbolt si prepara così ad una nuova evoluzione. Tale tecnologia arriva, grazie all’implemento al suo interno dello standard 3.1 e del connettore reversibile USB-C, a velocità estreme teoriche di 40 Gbps, due volte la velocità della generazione precedente, quattro volte la larghezza di banda rispetto ad una Thunderbolt 2, presenta così una capacità di trasferimento superiore, oggi, a qualunque altro cavo fisico presente sul mercato. Trasferire un film in super alta definizione 4K richiederebbe ora solo 30 secondi tra due dispositivi aventi lo stesso standard. Meno di 1 minuto per copiare 14 ore di video HD, meno di 1 minuto per copiare 25.000 foto, meno di 1 minuto per copiare 10.000 canzoni.

Come dicevo riguardo alla diffusione dei nuovi standard tecnologici, molto dipenderà  dalle scelte delle grandi aziende di abbracciare questa evoluzione: Intel intende integrare Thunderbolt 3 nei propri microprocessori (fino ad oggi era servito un controller dedicato sulle schede madri) e rendere il protocollo “non esclusivo”, gratuito e “royalty free”. Aprire il protocollo e rimuovere i costi permetterà ad altri produttori di sviluppare controller compatibili con Thunderbolt, abbassando i costi della tecnologia. Fino ad oggi, infatti, un grosso problema di Thunderbolt era stato quello dei costi, anche dei cavi e degli accessori, che in parte ha frenato l’adozione da parte dei consumatori, ma l’integrazione della nuova evoluzione tecnologica direttamente nelle future CPU aiuterà a ridurre il costo complessivo del prodotto finale. E, anche se in questi anni non è riuscita a diventare una tecnologia di massa, la versatilità della Thunderbolt 3 capace di adibire una singola porta a tantissimi utilizzi diversi (dall’alimentazione dei dispositivi, alla connessione di schermi, trasferimento di dati) di fronte alle nuove strategie chiarite da Intel potrebbero davvero far affermare ancora di più questa tecnologia che si vanta del fatto di essere “the USB-C that does it all”. Stavolta magari anche al giusto prezzo.

Gianluca Cimini

]]>
Tue, 11 Jul 2017 19:23:04 +0000 http://www.gianlucacimini.it/mc/534/1/thunderbolt-pronto-ad-evolversi-prestazioni-top-e-maggiore-diffusione gianlucacimini2016@gmail.com (Gianluca Cimini)
Social Media contro violenza e terrorismo grazie all’AI (e non solo) http://www.gianlucacimini.it/mc/533/1/social-media-contro-violenza-e-terrorismo-grazie-all-ai-e-non-solo

Era arrivato con decisione a Dicembre dello scorso anno il monito della Commissione Europea contro i grandi di internet (Facebook, Twitter, YouTube, Microsoft in primis) per non essersi impegnati in tempi ragionevoli a contrastare il fenomeno “dell’odio da tastiera” (più precisamente detto “hate speech”) che sempre più spesso, sempre con più facilità e con più velocità, si alimenta proprio su quei social media creati inizialmente per condividere le proprie vite e al centro adesso del dibattito a causa dei troppi messaggi di incitamento all’odio e al razzismo che nascono, forti anche di un certo anonimato virtuale, tra le righe dei vari profili. Così , per contrastare in maniera più efficace il fenomeno appena descritto, le grandi aziende hanno stipulato un “Codice di condotta” con l’obiettivo di controllare le notifiche ed eventualmente bloccare dopo verifica i relativi post entro 24 ore, ma persino oggi, nonostante l’adesione, l’obiettivo è ancora lontano dal suo raggiungimento. Molto spesso, infatti, proprio sulla rimozione celere dei contenuti valutati negativamente si gioca la battaglia contro l’odio in rete. Prima si agisce e prima si può arginare il problema in un mondo come quello di internet in cui la diffusione delle notizie, anche di quelle false purtroppo, è quasi istantanea e alimentare tale notizie è fin troppo facile, dopotutto basta un “condividi” cliccato senza troppa cognizione di causa.

Se da un lato, però, ci si sta muovendo lentamente contro gli “odiatori da tastiera” al contrario i grandi network si stanno organizzando per contrastare quel fenomeno terroristico che non smette di trovare sempre nuovi adepti. Perché si sa, ormai il terrorismo attuale viaggia soprattutto in Rete. In maniera silenziosa, alcune grandi realtà del Web avrebbero iniziato così a bloccare i contenuti estremisti o che comunque incitino alla violenza e all’odio. Stabilire se un contenuto sia estremista o inciti all’odio, però, non è cosa semplice poiché ci sono molte sfumature, non sempre si tratta infatti di situazioni facili da riconoscere come nei casi di violazione di copyright o di video pedopornografici. Affidarsi solamente alla segnalazione degli utenti, a cui segue un controllo da parte umana, può non bastare ,il futuro della valutazione di certi contenuti è, quindi, nelle mani dell’automazione tecnologica che può risultare più efficace e soprattutto più tempestiva. A quanto pare i grandi colossi Web, come Facebook e Google, starebbero utilizzando una particolare tecnologia, nata inizialmente per rimuovere i contenuti protetti da copyright, adattata al nuovo scopo grazie all’uso dei “codici hash” ossia una sorta di firma digitale unica assegnata dalle Internet company automaticamente a certi video, che consente di rimuoverli velocemente, evitando anche che possano essere ripostati altrove. Tuttavia, la tecnologia in questione funziona solamente, per ora, su contenuti già conosciuti e circolanti in rete, mentre non riesce a bloccare i contenuti totalmente nuovi immessi sul Web.

Per il futuro Facebook ha annunciato di avere allo studio soluzioni tecnologiche innovative che dovrebbero aiutare a contrastare la diffusione di contenuti terroristici attraverso le sue pagine. La chiave sarebbe l’impiego dell’intelligenza artificiale che attraverso algoritmi di apprendimento profondo migliorerà la sua efficacia con il tempo e con l’utilizzo e sarà in grado sia di confrontare immagini (consentendo al sito di tutte le foto o i video pubblicati da varie fonti se dovessero avere una corrispondenza con altri contenuti già eliminati), sia di comprendere i messaggi e di eliminare automaticamente tutti quelli che abbiano in qualche modo a che fare con contenuti terroristici. Il social, dunque, cercherà in modo sempre più efficiente di individuare e chiudere account che mostrino elevati rapporti con altri profili già chiusi per terrorismo o che abbiano condiviso materiali legati ad attività terroristiche.

E così per le grandi aziende Web non è facile riuscire ad arginare il fenomeno specialmente perché lavorano costantemente sul pericoloso filo che da una parte tenta di proteggere gli utenti e dall’altra rischia di minare il diritto di espressione. E così, il giusto peso di valutazione, per quelle pagine web in bilico tra censura e sanzione, rimane un tema alquanto spinoso. La foto di un uomo armato che sventola una bandiera dell'ISIS può essere materiale di propaganda, ma anche di informazione: la differenza la fa il contesto e nessuno meglio di un essere umano può valutare questa componente, per questo la componente umana rimarrà quasi sempre rilevante in questa lotta.

Le direttive di Facebook sulla valutazione dei contenuti dei post per esempio, rese pubbliche grazie ad un articolo del Guardian a Maggio, valutano il contesto sempre come prioritario rispetto al contenuto. Così immagini di morti violente, aborti (se non mostrano persone nude), persone che si infliggono ferite o abusi fisici non sessuali, secondo la direttiva, non vanno rimosse per forza a meno che non siano mostrate in un contesto in cui si fa apologia del contenuto. Se i contenuti sono pubblicati in un contesto celebrativo o sadico sono destinati ad essere rimossi, viceversa, potrebbero essere utilizzati per sensibilizzare le persone su alcuni problemi (come nel famoso caso della bambina vietnamita ustionata dal Napalm). Il tema, che interessa non solo una piccola comunità formata da un gruppo di persone definite, ma un’ampia parte della popolazione mondiale, è attuale e lo sarà sicuramente anche per gli anni a venire poiché il pluralismo del Web rischia di trasformarsi in una grande Babele in cui molte voci rischiano di scontrarsi e coprirsi tra loro senza armonizzarsi e rimanere controllabili e decifrabili. Il tema della libera espressione sul Web è molto complesso e siamo nel momento forse di espansione più grande di questa società virtuale che vive intorno a noi. La convinzione che le tecnologie digitali alimentino solo cambiamenti positivi (come si è pensato ai tempi delle manifestazioni in piazza in Iran, Cina ed Egitto) e siano lo strumento perfetto per la creazione della democrazia corrisponde veramente alla realtà?

Gianluca Cimini

]]>
Tue, 4 Jul 2017 19:20:23 +0000 http://www.gianlucacimini.it/mc/533/1/social-media-contro-violenza-e-terrorismo-grazie-all-ai-e-non-solo gianlucacimini2016@gmail.com (Gianluca Cimini)
SambaCry: quando ad essere preso di mira dagli hacker è il mondo Linux. http://www.gianlucacimini.it/mc/532/1/sambacry-quando-ad-essere-preso-di-mira-dagli-hacker-e-il-mondo-linux

Quella che fino ad oggi sarà ricordata come la più diffusa cyber offensiva mondiale perpetrata verso computer Windows, ossia WannaCry che ha bloccato i pc di mezzo mondo con numeri altissimi di diffusione (pari a più di 100 mila attacchi, 150 paesi colpiti, ospedali britannici mandati in tilt e anche 2 università italiane), si presta ad avere la sua controparte anche nel meno diffuso, e a detta di molti esperti anche più sicuro, mondo di Linux. E così migliaia di potenziali vittime tra i server Linux che utilizzano la piattaforma Samba per la condivisione di file e stampanti in rete locale rischiano di veder trasformati i loro computer in “zombie” pronti a generare una cosiddetta “cripto-valuta” ed arricchire gli hacker che stanno attaccando questa suite di strumenti utilizzati per la condivisione tra reti miste windows e linux, implementando il protocollo di rete SMB. Tale bug implementato in Samba, simile a quello che ha scatenato WannaCry, permetterebbe ad un hacker sufficientemente preparato di prendere il controllo della macchina. Tale vulnerabilità, affinché un attaccante possa caricare un codice arbitrario da eseguire in remoto, richiede sia che il computer su cui è eseguito il servizio Samba abbia attiva la condivisione di file e/o stampanti sulla porta 445, sia che questa sia raggiungibile da Internet, ed infine che chiunque abbia permessi di scrittura su tali condivisioni li abbia in percorsi predefiniti o facilmente indovinabili. La vulnerabilità era già nota da tempo, così come la possibilità che venisse sfruttata per eseguire azioni malevoli, ma solo a distanza di mesi è stato individuato il primo Trojan in grado di violare quei sistemi Linux che utilizzano la piattaforma open source Samba. Rispetto all’attacco WannaCry la buona notizia è che gli hacker stavolta non stanno prendendo in ostaggio i file degli utenti richiedendo loro dei soldi per essere sbloccati (un cosiddetto attacco ransomware). E allora cosa hanno in mente questa volta?

Il malware agisce in maniera estremamente metodica. Per prima cosa verifica la possibilità di accedere in modalità scrittura sul disco, copiando al suo interno un file di testo composto da 8 caratteri casuali. Se il tentativo ha successo, SambaCry cancella il file e procede con l’attacco. L’obiettivo della diffusione di SambaCry sembra legato alla cripto-valuta Monero. Nei computer degli sfortunati utenti, infatti , viene installato un software che permette agli hacker di utilizzare la potenza di calcolo dei server Linux per generare questa cripto-valuta simile a Bitcoin che sta diventando molto popolare tra i cyber-criminali. Monero, infatti, ha caratteristiche tecniche che promettono di garantire l’assoluto anonimato nelle transazioni, rendendola una valuta ideale per operazioni illegali. Ma questo potrebbe essere solo l’inizio per i cyber criminali dal momento che gli analisti di Kaspersky (nota società di antivirus che ha lanciato l’allarme sulla nuova minaccia informatica) hanno notato nelle loro analisi che il componente installato nei computer infetti apre effettivamente l’utilizzo a diverse possibilità, sia dall’installazione di ulteriori malware sia dal controllo totale remoto della macchina a totale discrezione e piacimento degli hacker. La consolazione per gli utenti è che, per ora, l’operazione non abbia portato ai cyber criminali grandi guadagni (circa 5.400 dollari caricati nel wallet XMR, sigla delle monete di Monero) e che il numero di server vulnerabili all’attacco non è così elevato: circa 100.000 secondo i ricercatori di Rapid7, e dopo l’annuncio e la pubblicazione degli aggiornamenti che correggono il bug, tale numero dovrebbe essersi drasticamente ridotto. Se possedete o gestite computer che utilizzano Samba il consiglio è di assicurarsi per bene della versione installata sulla propria macchina (sia la 4.6.4, la 4.5.10 che la 4.4.14 contengono la patch che dovrebbe assicurare di essere immuni all’attacco SambaCry).

Noto da questa nuova vicenda, e con una certa nota positiva, che molto spesso le previsioni degli analisti e dei ricercatori di società informatiche che si occupano di cyber attacchi e diffusione di virus ed altri malware, quasi sempre si rivelano veritiere. Non sono però da meno gli hacker che, una volta venuti a conoscenza della vulnerabilità del software, in brevissimo tempo utilizzano quella falla di sicurezza per portar avanti i loro scopi. Aggiornare, quindi, rimane ancora una volta la soluzione migliore per aver la certezza che eventuali bachi del sistema siano stati corretti con le versioni successive. E gira voce tra il mondo Linux che tale vulnerabilità sia presente da circa sette anni anche se fino ad oggi non ha mai fatto così gola agli hacker.

Gianluca Cimini

]]>
Wed, 28 Jun 2017 19:31:34 +0000 http://www.gianlucacimini.it/mc/532/1/sambacry-quando-ad-essere-preso-di-mira-dagli-hacker-e-il-mondo-linux gianlucacimini2016@gmail.com (Gianluca Cimini)
Stampa beffarda: la NSA può risalire a chi sei grazie alla tua stampante http://www.gianlucacimini.it/mc/531/1/stampa-beffarda-la-nsa-puo-risalire-a-chi-sei-grazie-alla-tua-stampante

Li chiamano “tracking point” e sono i marcatori che molte stampanti a colori imprimono sulle stampe effettuate registrando in questo modo tutte le informazioni che permettono di risalire non solamente al momento esatto in cui il documento è stato stampato, ma anche al numero della stampante usata. Niente di preoccupante se non si ha qualcosa da nascondere, ma abbastanza rilevante se i documenti stampanti sono rapporti Top Secret dell’Agenzia della Sicurezza Nazionale Americana (NSA). Il sistema di “marchiature” delle stampe è conosciuto da diversi anni, nonché avversato da molte associazioni americane che si battono per la libertà di espressione, ed è stato utilizzato in questo caso per risalire ad un documento segreto in cui si accusava la Russia di Vladimir Putin per presunte “interferenze” nel corso delle ultime elezioni presidenziali statunitensi. Tale documento, dopo essere stato trafugato, o venduto, è stato fornito, per ancora non chiari motivi, al famoso sito di informazioni “The Intercept” (diretto da Glenn Greenwald, un giornalista specializzato in inchieste di questo tipo e che già lo scorso anno aveva denunciato i sistemi di sorveglianza di massa dell’NSA grazie alla collaborazione di Edward Snowden).

Fin qui tutto il passaggio di informazioni era stato perfetto ma, a questo punto, un errore gravissimo ha portato gli agenti dell’NSA a risalire alla fonte del “leak” attraverso i già citati marcatori di stampa. E così, grazie alla circolazione di una scansione in PDF della stampa originale trafugata da qualche talpa, si è giunti al nome del contatto che fino a qualche mese fa collaborava con la National Security Agency, tale Reality Leigh Winner, che ora si trova in stato di arresto rischiando una condanna a 10 anni di carcere. Da giornalisti così esperti e specializzati nei temi della sorveglianza mi sarei aspettato che fossero capaci di proteggere le loro fonti, ma anche i migliori possono sbagliare. Il tema è molto importante e dibattuto, poiché la serie di attacchi nei confronti dei sistemi di voto elettronici nel corso delle elezioni presidenziali USA del 2016,( ne avevo parlato già mesi fa), aveva acceso i riflettori sui possibili brogli elettorali che poi, con la presunta ingerenza del governo russo di Putin, hanno portato alla vittoria il candidato Donald Trump, e così, una dimenticanza così importante ha portato, nel giro di poche ore dalla pubblicazione della scansione PDF, all’arresto dell’informatrice che aveva fornito quel documento Top Secret proveniente dagli uffici dell’NSA. Ma la certezza che quei file non possano essere stati portati fuori dagli uffici del governo e stampati solo in un secondo momento da un computer qualunque da cosa si evince? Il documento trafugato proviene da una stampante con numero di modello 54, numero di serie 29535218, ed è stato stampato il 9 maggio 2017 alle 6:20. La NSA è risalita così a chi utilizzava la stampante in quel momento, ma come?

La risposta risiede proprio nei famigerati “tracking dot” (o point), una serie di puntini di colore giallo che le stampanti a colori inseriscono in qualsiasi stampa. Praticamente invisibili ad occhio nudo per chi guarda il foglio di carta, ma visibili ai più attenti e specialmente a chi sa dove e come cercarli. E così risalire alla stampante usata attraverso il suo numero di serie e anche all’esatto momento in cui la stampa è stata eseguita, per quanto possa sembrare difficile, non è irrealizzabile. E nel momento in cui quella pagina stampata viene trasformata in una versione digitale attraverso uno scanner gli stessi puntini gialli vengono impressi indelebilmente sul file pronti ad essere analizzati da occhi esperti e non solo. Sul web infatti (per esempio in inglese all’indirizzo: https://w2.eff.org/Privacy/printers/docucolor/) ho trovato una guida molto esaustiva, parte del progetto “Machine Identification Code Technology project”, che spiega come leggere la data, l’ora ed il numero di serie della stampante dai codici di monitoraggio che vengono impressi sulla carta al momento della stampa.

Alcune stampanti imprimono una griglia rettangolare di 15 punti per 8 punti gialli minuscoli su ogni pagina a colori. La stessa griglia viene stampata ripetutamente su tutta la pagina ma le ripetizioni della griglia sono leggermente compensate l’una dall’altra, in modo che ciascuna griglia sia separata dalle altre. La griglia, inoltre, viene stampata parallela ai bordi della pagina. A causa del loro limitato contrasto con lo sfondo, i puntini non sono solitamente visibili all'occhio nudo sotto la luce bianca. Possono essere visibili, però, mediante ingrandimento (utilizzando una lente d'ingrandimento o un microscopio) oppure illuminando la pagina con una luce azzurra anziché una luce bianca. La luce blu pura provoca, infatti, la comparsa dei famosi punti gialli. A questo punto, utilizzando sia l'ingrandimento sia l'illuminazione sotto la luce blu, la maggioranza degli individui, con un buon occhio, sarà in grado di vedere i punti identificativi di cui abbiamo parlato, provare per credere. 

Gianluca Cimini

]]>
Tue, 20 Jun 2017 18:08:01 +0000 http://www.gianlucacimini.it/mc/531/1/stampa-beffarda-la-nsa-puo-risalire-a-chi-sei-grazie-alla-tua-stampante gianlucacimini2016@gmail.com (Gianluca Cimini)
La privacy dei cittadini e degli studenti al centro del lavoro del Garante http://www.gianlucacimini.it/mc/530/1/la-privacy-dei-cittadini-e-degli-studenti-al-centro-del-lavoro-del-garante

Con l’entrata in vigore, a maggio del 2018, del nuovo Regolamento europeo sulla protezione dei dati personali, offline ma soprattutto online, si cercherà di avere un metodo ancora più efficace per rispondere alle tante nuove sfide dettate dagli aggiornati modelli di crescita economica dei paesi dell’unione, nonché dalle esigenze di tutela sempre più avvertite dai cittadini dell’Europa. L’anno che si è concluso ormai da qualche mese ha visto un lavoro continuo ed impegnativo da parte dell’Autorità Garante per la Protezione dei Dati Personali, in un documento presentato qualche giorno fa, è stato fatto così il punto sia dei risultati ottenuti fino ad oggi, sia degli obiettivi futuri e di come questi verrano perseguiti. Dal cyberbullismo, alla lotta al terrorismo, alla crescita del crimine informatico, all’espansione dei Big Data e ai rischi della sorveglianza di massa, passando infine per le nuove tecnologie del mondo del lavoro e la richiesta di maggiore trasparenza nelle Pubbliche Amministrazioni, gli ambiti in cui il Garante si è trovato ad intervenire sono tanti e tutti di rilevanza nazionale, ma non solo. Per farci un’idea dell’operato basta guardare i numeri del 2016 ossia: 561 provvedimenti collegiali, il riscontro ad oltre 4.600 quesiti, reclami e segnalazioni (in particolare al settore del marketing telefonico, credito al consumo, videosorveglianza, e concessionari di pubblico servizio, recupero crediti, settore bancario e finanziario, assicurazioni, lavoro, giornalismo, enti locali e sanità e servizi di assistenza sociale) e 277 ricorsi decisi (soprattutto riguardanti editori, banche e società finanziarie, datori di lavoro pubblici e privati, sistemi di informazione creditizia, PA e concessionari di pubblici servizi).

"Stiamo morendo per eccesso di informazioni" è una frase del critico d’arte italiano Federico Zeri che oggi appare profetica. Davanti ad una Rete sconfinata che non dimentica nulla, noi utenti virtuali continuiamo a riversare sul web, sulle chat e sui social media pezzi della nostra vita, con conseguenze non sempre prevedibili e non di rado tragiche. E così le notizie di ricatti, vendette, umiliazioni pubbliche, furti di identità sono ormai cronaca quotidiana sul web e spesso i colpevoli sono le stesse vittime, incapaci di trattenere il desiderio di trovare un momento di notorietà su Internet. Un atteggiamento favorito e condiviso da un sistema in cui la vera merce sono proprio i dati e le informazioni che vengono venduti e scambiati più o meno legalmente. In relazione a questo una delle attività principali e più intense di cui si è occupata il Garante è stata proprio la protezione dei dati online degli utenti, a partire dai grandi motori di ricerca (dove Google si è impegnata a rendere conforme il trattamento dei dati dei suoi utenti alla normativa italiana) e dai social network (con Facebook che si è imposto di bloccare i profili falsi ed assicurare più trasparenza e controllo agli utenti).

Sul fronte della scuola molto è stato fatto per aiutare gli studenti, le famiglie, i professori e la stessa amministrazione scolastica a muoversi agevolmente nel mondo della protezione dei dati, grazie alla pubblicazione di un vademecum che tenta di spiegare in modo semplice ed efficace quali sono i comportamenti più corretti e meno a rischio da tenere in vari contesti, toccando temi di attualità, dal cyberbullismo alla videosorveglianza, dalle foto pubblicate online all'identità digitale. Dalla guida si evince così l’obbligo per le scuole di informare sempre i diretti interessati sui dati raccolti, sul modo in cui sono raccolti, su come sono utilizzati e a quale fine. Si specifica, inoltre, per quanto riguarda la raccolta dei dati personali necessari al perseguimento di specifiche finalità istituzionali, che le scuole non sono tenute a chiedere il consenso degli studenti. Nonostante questo, ogni persona ha diritto a conoscere se sono conservate informazioni che la riguardano, di apprenderne il contenuto, di farle rettificare se erronee, incomplete o non aggiornate (rivolgendosi direttamente al titolare del trattamento o in caso di riscontro non adeguato sia al Garante sia alla magistratura ordinaria). Le istituzioni scolastiche devono inoltre prestare particolare attenzione a non diffondere dati idonei a rivelare lo stato di salute o giudiziario degli studenti o altri dati personali sensibili, attraverso i tabelloni che riportano ad esempio le votazioni di fine anno o tramite circolari o altri documenti non indirizzati a soggetti specifici. Sul tema delle nuove tecnologie e della condivisione della propria vita tramite social e web il Garante punta, giustamente, l’attenzione sui rischi legati ad una sovraesposizione eccessiva, in particolare al fatto che spesso molte azioni apparentemente innocue e innocenti svolte sui social possono portare a conseguenze anche drammatiche. L’invito rivolto ai giovani, quindi, personale e anche delle istituzioni, è quello di utilizzare le nuove tecnologie con estrema attenzione per evitare il rischio di essere vittime di commenti di odio, cyberbullismo, sexting o altri tipi di ingerenze nella propria vita privata che possono, purtroppo come già è successo, degenerare in situazioni ancora peggiori. Quando e se ciò dovesse avvenire, il consiglio è sempre quello di rivolgersi a compagni, famigliari, professori ed amici, nonché al Garante e alle altre autorità competenti, per risolvere il prima possibile la questione e ripristinare la reputazione ingiustamente lesa. 

Gianluca Cimini

]]>
Tue, 13 Jun 2017 07:28:31 +0000 http://www.gianlucacimini.it/mc/530/1/la-privacy-dei-cittadini-e-degli-studenti-al-centro-del-lavoro-del-garante gianlucacimini2016@gmail.com (Gianluca Cimini)
Bluetooth 5, evoluzione presente che guarda al futuro, e all’internet of things http://www.gianlucacimini.it/mc/529/1/bluetooth-5-evoluzione-presente-che-guarda-al-futuro-e-all-internet-of-things

Ufficializzato nelle sue specifiche definitive a fine 2016, il Bluetooth è ormai realtà nel mercato, anche se i tempi di espansione della nuova tecnologia stanno allungandosi a causa di una adozione rallentata dai grandi colossi della tecnologia. Nato nel 1994 grazie all’azienda svedese Ericsson che volle unificare le tecnologie senza fili di quel momento (proprio come il re Aroldo I Dente Azzurro - da qui bluetooth - che unificò i popoli vichinghi del frammentato regno di Danimarca sotto un'unica nazione nel X secolo) il Bluetooth si affermò velocemente per condividere i nostri ricordi (foto, audio, suonerie, documenti) con le persone, e ora, con il nuovo standard, anche con gli oggetti intelligenti che ci circondano. Infatti, una volta che il nuovo standard si diffonderà nel mondo, inevitabilmente andrà ad influire su quel fenomeno dell’Internet of Things che è destinato a crescere esponenzialmente nei prossimi anni: il nuovo Bluetooth salverà, inoltre, anche le nostre reti WIFI casalinghe, ormai congestionate dai tanti dispositivi collegati, controllando gran parte dei dispositivi dell'Internet delle Cose che oggi si connettono al WIFI come altoparlanti, televisioni o macchine del caffè, fornendo soluzioni destinate all'integrazione non solo in ambito domestico, ma anche aziendale ed industriale. Lo stesso Mike Powell, Direttore del Bluetooth SIG (Special Interest Group), non ha fatto mistero sul fatto che il Bluetooth 5 contribuirà in maniera significativa all'espansione del mercato Io: grazie, inoltre, a più agevoli canali di comunicazione con bacon situati nei luoghi più disparati e ad una connettività wireless sempre più impiegata per fornire servizi location-based. La nuova specifica dovrebbe rendere anche i "beacon Bluetooth" più efficienti. Si tratta di una tecnologia che consente ai dispositivi Bluetooth di trasmettere e ricevere piccoli messaggi entro brevi distanze (una soluzione usata dai negozi in alcune parti del mondo per contattare potenziali clienti e informarli di offerte in corso). Ha dichiarato Mark Powell: “Bluetooth sta rivoluzionando il modo in cui le persone vivono l’esperienza dell’IoT. Bluetooth 5 continua a guidare questa rivoluzione offrendo connessioni IoT affidabili e incentivando l’adozione dei beacon, che a loro volta ridurranno le barriere di connessione, consentendo una perfetta esperienza dell’IoT”.

Più dati e un ampio raggio di trasmissione in più e consumi ridotti in termini pratici. Il nuovo standard, almeno sulla carta, copre un'area quattro volte maggiore, è due volte più veloce (bandwidth di 2 Mbps) e ha una capacità trasmissiva otto volte superiore rispetto al 4.2 LE, che ha avuto una larga diffusione in questi anni nel mercato smartphone. Proprio nel mondo degli smartphone vedremo il primo dispositivo che implementerà questa nuova tecnologia (ossia il Samsung Galaxy S8 seguito successivamente nei trimestri a seguire rispettivamente dallo Xiaomi Mi 6 e dal Sony Xperia XZ Premium). Non basterà, però, solamente utilizzare degli smartphone adibiti alla nuova tecnologia se non ci sono prodotti ad hoc in grado di sfruttare al meglio tutte le nuove caratteristiche, e così il successo di questa nuova tecnologia si baserà anche su quanti e quali dispositivi bluetooth 5 verranno messi in commercio nel prossimo anno, in primis speaker audio portatili e cuffie wireless (che potrebbero sfruttare, per esempio, la nuova funzionalità di doppio invio dell’audio capace di separare l’audio dei contenuti multimediali da quello notifiche, oppure quello di utilizzare due speaker allo stesso momento). Inoltre, grazie al Bluetooth a bassa energia (BLE) si può ridurre maggiormente lo spreco di energia e la dipendenza dalla ricarica dei vari dispositivi. La quinta generazione del bluetooth è , infatti, capace di mantenere una larghezza di banda di oltre 100 metri: parlare a mani libere rischiando di perdere la connessione perché il cellulare è troppo distante da noi sarà ormai un ricordo del passato. Sono state anche perfezionate le capacità di adattamento del segnale, cosa che permette di ridurre le interferenze con altre connessioni wireless come WiFi e LTE, evitando la congestione e garantendo maggiori prestazioni. Uno dei vantaggi più importanti, anche se magari non visibile a molti, sarà un livello di sicurezza maggiore nella trasmissione dei dati: l'informazione che passa da dispositivo a dispositivo è cifrata (in conformità agli standard di difesa del governo degli Stati Uniti e valido soprattutto per i dispositivi IoT), perciò il Bluetooth è particolarmente raccomandato per i dispositivi che controllano la nostra salute o i nostri pagamenti.

Grazie alla nuova velocità di tutte le operazioni possibili (che subirà un incremento notevole grazie alla velocità raddoppiata a 5120 kbps), questo potrebbe dire che magari diventerà più conveniente trasferire file tramite Bluetooth rispetto ai classici hard disk portatili o vecchie chiavette USB. Anche se il mercato Bluetooth 4-4.2 sopravviverà ancora per almeno un paio di anni, aspettiamo dunque di vedere quali grossi ed effettivi miglioramenti potrà portare Bluetooth 5, nel frattempo sicuramente vi converrà aspettare in caso abbiate intenzione di acquistare un dispositivo che utilizzi questa tecnologia, dal momento che difficilmente prima del 2018 il mercato si aprirà totalmente a questa nuova tecnologia: come dicevo il Galaxy S8 di Samsung è l’unico cellulare che, attualmente, supporta questo standard. Ma qualcosa comincerà a cambiare nei prossimi mesi, non sarà un’attesa troppo lunga.

Gianluca Cimini

]]>
Sun, 11 Jun 2017 12:47:14 +0000 http://www.gianlucacimini.it/mc/529/1/bluetooth-5-evoluzione-presente-che-guarda-al-futuro-e-all-internet-of-things gianlucacimini2016@gmail.com (Gianluca Cimini)
Deep and Dark, il Web che non tutti conoscono http://www.gianlucacimini.it/mc/528/1/deep-and-dark-il-web-che-non-tutti-conoscono

Prendendo spunto da un articolo pubblicato nei giorni passati su una delle maggiori testate giornalistiche italiane, si è accesa in me la curiosità di approfondire ciò che da sempre esiste, di cui da molto si parla, ma di cui pochi ancora conoscono sia le funzionalità sia i pericoli: mi riferisco al “Dark Web” quello che potrebbe essere a tutti gli effetti visto come un “mercatino della criminalità” a domicilio.

Perché, se da una parte si possono acquistare libri o film su Ebay o Amazon, allo stesso tempo su altri siti si possono comprare, fin troppo facilmente, armi o documenti falsi, acquistare droga o scambiarsi materiale pedopornografico. E tutto questo mi lascia alquanto sconcertato e preoccupato, proprio per la relativa facilità con cui tutte queste transazioni possano essere effettuate con le giuste conoscenze tecniche.

I dati, in questo caso, non certi, ci dicono quanto sia diffuso questo web sotterraneo: ogni cinque mila persone connesse c’è un utente che naviga sul Dark Web con l’Italia in pole position tra i paesi dove si rivela la maggiore densità di traffico: frequentato prevalentemente di notte da 3-400 mila utenti, soprattutto da giovani tra i 15 e 24 anni. “In questo underground, l’Italia è tra i più evoluti al mondo – ha spiegato all’Ansa Claudio Cilli, docente di Informatica alla Sapienza e consulente del governo per la cybersicurezza e delle Nazioni Unite nei settori delle tecnologie dell’informazione – Il paradosso è proprio questo: il nostro Paese è arretrato sotto l’aspetto della cyber security ed è all’avanguardia per quanto riguarda l’illegalità nel Dark”.

Il sistema che fa accedere alla parte più oscura del web prende l’immagine di una cipolla (e da qui il suffisso del dominio “.onion”) per rappresentare come funziona questo sistema in cui le diverse “sfoglie” della cipolla rappresentano i vari server di tutto il mondo su cui si appoggiano, per solo pochi secondi, i vari siti di merce illegale. Saltellando da un server all’altro sia gli utenti sia i siti illegali risultano così praticamente non rintracciabili. Per fare tutto questo si utilizza la rete di anonimizzazione TOR (acronimo di “The Onion Router”) un sistema gratuito che permette di nascondere il proprio indirizzo IP e la propria identità in Rete “rimbalzando” la connessione fra vari computer sparsi in tutto il mondo. Utilizzato non solo per accedere ad attività discutibili e illegali, ma anche per visitare siti “nascosti” che non si trovano facendo delle normali ricerche in Google.

Il web visibile, quello che utilizziamo tutti i giorni, è visibile solo perché indicizzato dai motori di ricerca (primo fra tutti, Google): non deve sorprendere che si tratti in realtà solamente di una piccola parte dei siti effettivamente online. Tutto ciò che non è visibile è invece parte del “Deep Web”. Non bisogna fare confusione infatti tra Deep Web, Web Sommerso o Invisibile, non indicizzata dai comuni motori di ricerca perché magari composta da nuovi siti, pagine web a contenuto dinamico, web software e siti privati aziendali; ed invece il Dark Web di cui sto approfondendo qui la conoscenza che si riferisce, invece, a quel sottoinsieme irraggiungibile attraverso una normale connessione internet senza far uso, come detto, di particolari software che lavorano su reti sovrapposte ad Internet chiamate genericamente “Darknet”.

Accedere a questi contenuti non è per niente difficile a mia sorpresa, basta installare determinati software sul computer, nati inizialmente con lo scopo di navigare in quasi totale anonimato online, per aprirsi ad un panorama tanto vario quanto agghiacciante: troppo facile registrarsi con un qualsiasi account su siti che offrono armi con matricole abrase (a partire da 600 euro), leggermente più difficile, ma non impossibile, rifarsi una nuova identità per ottenere un passaporto falso o una patente falsa (dove il prezzo si attesta sugli 800 euro). Tutto acquistabile attraverso un acquisto in bitcoin, la cripto moneta così tanto diffusa su internet per ogni tipo di acquisto. I prodotti vengono poi spediti, nel caso delle armi per esempio, con diversi corrieri espressi che consegnano al destinatario i vari pezzi del prodotto finale che deve essere solo rimontato alla fine. Facile, grazie ai vari tutorial che si trovano su internet, come il “meccano” che usavamo da bambini, ma tristemente più letale. Anima di questo Dark Web sono i forum dove gli hacker possono interagire tra loro (e lo fanno con un particolare linguaggio definito “Leet” e caratterizzato da molti caratteri non alfabetici e terminologie volgari) solo dopo aver acquisito una certa reputazione all’interno del forum ed accedere ai link che aprono le porte a qualunque commercio illegale. Esiste attualmente un unico modo per le polizie di tutto il mondo di entrare in contatto con questo mondo, ed è quello di infiltrarsi nei vari forum, acquisendo la fiducia dei criminali per poi riuscire ad incontrarli fuori dal mondo virtuale. Le indagini non hanno portato, però, mai grossi risultati poiché il sistema sembra ancora troppo perfettamente oscuro per indagini accurate, a volte ci si affida più agli errori comuni degli hacker per scovarli fuori dalla loro tana, è questo il caso di Ross Ulbricht, arrestato dall’FBI nel 2013 per il suo portale illegale “Silky Road” scovato solo perché si è connesso per qualche secondo ad un “server civetta” della polizia, oppure al caso di un giovane romano di 24 anni che ha avuto l’ottima idea di comprare un’arma illegale su internet e di postare il video del suo affare su YouTube. Una frontiera selvaggia quella del Dark Web dove non ci sono leggi e si traffica in tutto, senza attualmente possibilità di controllo. C’è da rimanere sconvolti oppure no?

Gianluca Cimini

]]>
Mon, 5 Jun 2017 19:16:10 +0000 http://www.gianlucacimini.it/mc/528/1/deep-and-dark-il-web-che-non-tutti-conoscono gianlucacimini2016@gmail.com (Gianluca Cimini)
Linac4: risolvere il mistero della materia oscura è il prossimo obiettivo del Cern http://www.gianlucacimini.it/mc/527/1/linac4-risolvere-il-mistero-della-materia-oscura-e-il-prossimo-obiettivo-del-cern

Potrebbe essere giunta la volta buona per risolvere i tanti misteri che avvolgono la cosiddetta “materia oscura”: materia, non solo di studio, di cui molti parlano, che alcuni  cercano, ma nessuno sa cosa sia. Di questo elemento così diffuso nell’universo sappiamo cosa non è e come non si comporta, ma nessuno per anni era mai riuscito ad osservarne direttamente una sola particella, almeno finché, ad Aprile 2017, due scienziati della Royal Astronomical Society dell'Università di Waterloo in Canada sono riusciti a catturare un’immagine della materia oscura sfruttando una lente non ottica, ma gravitazionale. Quello che quell’immagine ci riporta è praticamente “un ponte fra due galassie” con la materia oscura che funziona come collante tra le due. Il termine “materia oscura” in cosmologia si riferisce ad un’ipotetica componente di materia che non è direttamente osservabile, in quanto, diversamente dalla materia conosciuta, non emette radiazione elettromagnetica e si manifesta unicamente attraverso gli effetti gravitazionali, ed è proprio mediante misurazioni degli effetti gravitazionali che la sua massa genera sulla materia ordinaria, cioè sui corpi celesti e sulla luce nello spazio, che la sua presenza è stata rivelata. Senza addentrarmi troppo in termini tecnici il fenomeno utilizzato per catturare l’immagine si basa proprio sull’effetto fisico descritto dalla relatività generale di Einstein, per il quale, osservando la luce proveniente da un corpo celeste a grande distanza, tale luce viene deflessa dalla presenza di un altro oggetto di grande massa posto fra l’osservatore e la galassia. Una tecnica speciale attraverso la quale, ha dichiarato il coautore dello studio Seth Epps, “non solo siamo riusciti a vedere che questi filamenti di materia oscura sono presenti nell’universo, ma siamo riusciti ad osservare l’estensione di tali filamenti che connettono le due galassie”.

L’importanza della materia oscura è fondamentale per capire come funziona il nostro universo, dal momento che, secondo osservazioni sperimentali, si ipotizza che ne costituisca la grandissima parte, ossia quasi il 90% della massa presente nell’universo. Teorizzata per la prima volta nel 1933 dallo svizzero Fritz Zwicky durante lo studio delle galassie della Chioma e della Vergine ed approfondita poi vent’anni più tardi dall’astronoma americana Vera Rubin che riuscì a collezionare una serie di dati che dimostravano l'esistenza della materia oscura in tutte le altre galassie e non solo in quelle osservate da Zwicky. Molte sono le teorie dei fisici su cosa effettivamente possa essere la materia oscura: secondo le ipotesi più accreditate si tratta di particelle diverse dai “soliti” protoni, neutroni ed elettroni a noi noti, si tratterebbe invece di particelle molto pesanti che non emettono,  né riflettono, luce e attraversano come fantasmi la materia ordinaria. Quello che sappiamo con certezza, come già accennato, è cosa non è tale materia e quindi non è formata da buchi neri o nane brune.

Il resto dei misteri che circondano questa immensa parte di universo potrebbe, però , trovare alcune risposte a partire dal 2021 quando al CERN entrerà in funzione a pieno regime il nuovo acceleratore lineare di particelle Linac4 (un macchinario costato circa 82 milioni di euro, di quasi 90 metri, posizionato 12 metri sotto il suolo, costruito in 10 anni ed inaugurato proprio in questi giorni). Elemento fondamentale al CERN, un acceleratore lineare di particelle è il primo e più importante elemento della catena da cui poi partono tutti gli esperimenti successivi: al suo interno le particelle subiscono la prima fase di accelerazione e organizzazione in pacchetti che vanno a formare i fasci dell’esperimento. Rispetto al Linac 2, inaugurato nel 1978 ed attualmente in funzione, il nuovo acceleratore sarà in grado di consegnare fasci di protoni con tre volte più energia, e le collisioni di particelle a impatto più elevato forniranno nuovi dati al momento inarrivabili: si potranno così raccogliere 10 volte la quantità di dati durante gli esperimenti. Fabiola Giannotti, italiana e prima donna a diventare direttore generale del CERN, ha voluto esprimersi così durante l’inaugurazione: “Linac 4 è un moderno iniettore e il primo elemento chiave del nostro ambizioso programma di aggiornamento. […] Questa fase di alta luminosità aumenterà notevolmente il potenziale degli esperimenti Lhc per scoprire nuova fisica e misurare le proprietà della particella di Higgs in modo più dettagliato” è , infatti, la luminosità un parametro che indica il numero di particelle che si scontrano in una determinata quantità di tempo e che, grazie al progetto High-Luminosity Lhc, porterà il picco di luminosità a valori più elevati entro il 2025.

Le aspettative sono già da ora tante e si parla di un passo fondamentale verso gli esperimenti futuri, e in particolare della prospettiva di fornire misurazioni più accurate di particelle fondamentali, oltre che di osservare processi rari che avvengono oltre il livello di sensibilità degli strumenti attuali. Sorprenderà, inoltre, sapere che versioni più piccole di “Linac” possiamo trovarle anche in ogni reparto ospedaliero di radioterapia dal momento che i fasci di elettroni si usano per produrre fasci di fotoni (i cosiddetti raggi X) molto intensi usati per eliminare le cellule malate dei pazienti affetti da tumore. Dalla natura galattica, quindi, l’evoluzione delle tecnologie porterà Linac 4 ad avere anche una applicazione nella medicina nucleare, contribuendo al potenziamento delle cure contro il cancro. La scoperta della natura del cosmo passa così anche alla salute umana.

Gianluca Cimini

]]>
Tue, 30 May 2017 18:41:13 +0000 http://www.gianlucacimini.it/mc/527/1/linac4-risolvere-il-mistero-della-materia-oscura-e-il-prossimo-obiettivo-del-cern gianlucacimini2016@gmail.com (Gianluca Cimini)
Hubble: da 27 anni lo spazio che conosciamo è meno oscuro, e più bello, grazie a lui. http://www.gianlucacimini.it/mc/526/1/hubble-da-27-anni-lo-spazio-che-conosciamo-e-meno-oscuro-e-piu-bello-grazie-a-lui

Lanciato in orbita il 24 aprile 1990, il telescopio spaziale Hubble si prepara a festeggiare 27 anni di carriera, ed è un periodo lungo e pieno di scoperte e soddisfazioni quello che lo strumento gestito da NASA e ESA (Agenzia spaziale europea) ha saputo regalarci in questi quasi trent’anni di attività. Nell’immensità e nell’oscurità del cosmo, Hubble ha saputo in questi anni fare un po’ di chiarezza in più rispetto allo spazio che ci abbraccia; regalandoci, inoltre, immagini uniche e mozzafiato del nostro universo come nessuno lo immaginava, immagini che hanno saputo, inoltre, cambiare numerose delle idee che avevamo riguardo all’evoluzione del cosmo e svelare nel dettaglio la bellezza, la meraviglia e la complessità dell’Universo. Hubble non ha solo compiuto innumerevoli scoperte astronomiche, ha anche avvicinato l’astronomia al grande pubblico soddisfacendo la curiosità, accendendo l’immaginazione e producendo un forte impatto su cultura, società, arte.

Decollato ormai anni fa da Cape Canaveral, l’inizio è stato travagliato, segnato da problemi tecnici e di budget che fecero posticipare l’iniziale lancio programmato nel 1983 al 1986, stesso anno in cui la tragedia dello Space Shuttle Challenger (in cui morirono sette astronauti) fece sospendere tutte le missioni per gli Space Shuttle, compresa quella in cui si sarebbe dovuto lanciare il telescopio spaziale. Il telescopio spaziale dovette così rimanere custodito sottochiave in una speciale camera bianca, acceso e pulito con azoto (con costi altissimi per la manutenzione pari a circa sei milioni di dollari al mese). Quello che si rivelò inizialmente un disastro economico garantì però che il software originario, non pronto per la data originaria del lancio, venisse completato e testato a dovere. Anche dopo l’atteso decollo (a bordo dello Shuttle Discovery) non mancarono i guai per Hubble: un difetto nella costruzione dello specchio primario non permetteva di raggiungere la messa a fuoco prevista, per risolvere questo problema la NASA mise in atto una delle missioni più complesse nella storia dello Shuttle durante la quale in undici giorni i membri dell’equipaggio, dopo moltissime passeggiate spaziali, riuscirono a risolvere il problema principale del telescopio. Da quel momento in poi, senza dover contare gli interventi di manutenzioni successivi ordinari già programmati prima della messa in orbita, Hubble ha saputo regalarci grandi soddisfazioni: a lui dobbiamo molte delle sensazionali scoperte relative al Sistema Solare come le foto memorabili delle aurore gioviane, la collisione della cometa Shoemaker-Levy 9 con il pianeta Giove nel 1994, l'avvistamento dei pennacchi di vapore sulla luna di Giove Europa e la scoperta del quarto e quinto satellite di Plutone, nel 2011 e nel 2012.

Ultime solo in ordine di arrivo sono le immagini in alta risoluzione, acquisite tra il 2 e il 22 gennaio 2017, che ritraggono due galassie a spirale, piuttosto simili per struttura e composizione ma differenti per la loro inclinazione, localizzate nella costellazione della Chioma di Berenice, a 55 milioni di anni luce da noi, che mostrano come potrebbe apparire la nostra Via Lattea ad un osservatore esterno. Le due galassie, scoperte nel 1784 dall'astronomo William Herschel, sono parte dell'Ammasso della Vergine, un "grappolo" di quasi 2.000 galassie legate tra loro da un complesso viluppo di forze gravitazionali. Grazie alla “Wide Field Camera 3” Hubble è riuscito a immortalare NGC 4302, una galassia con un un diametro di circa 87.000 anni luce con una grandezza pari al 60% della Via Lattea e un decimo della sua massa; e anche NGC 4298 che, con un diametro di 45.000 anni luce, è grande quanto un terzo della Via Lattea e ha un centesimo della sua massa. Nonostante le due galassie siano relativamente vicine tra loro (da circa 7.000 anni luce) non presentano evidenti deformazioni della loro struttura dovute ad interazioni gravitazionali.

Hubble compie così bene il suo lavoro che ogni anno più di mille astronomi di ogni nazionalità al mondo richiedono di poterlo utilizzare per osservare i loro obiettivi scientifici, ma, a causa dell’elevato numero di queste richieste, i processi di valutazione e selezione delle domande fino ad oggi hanno richiesto tempi molto lunghi. Dico fino ad oggi perché, a breve, verrà lanciato un “classificatore bayesiano” dal nome PACMan in grado di classificare le varie attività di ricerca di Hubble ed identificare gli esperti che dispongono di competenze scientifiche pertinenti al tema proposto, così da velocizzare il processo di selezione potendo sostituirsi in questo modo ai 150 membri della comunità scientifica internazionale che, fino ad oggi, nell’arco di sei mesi, si occupavano di analizzare e selezionare le proposte di alto valore scientifico.

Rivoluzionando il campo dell’astronomia dell’astrofisica per 27 anni, Hubble ha consentito all’umanità di vedere il cosmo come mai prima d’ora ed è ancora lontano dal suo pensionamento, il futuro lo vedrà infatti lavorare ancora per diversi anni, si stima fino al 2030-2040, fino a quando non saranno operativi i suoi successori: il lancio del suo successore il telescopio “James Webb” è programmato per il 2018. Fin dall’alba della civiltà gli uomini hanno alzato gli occhi al cielo per provare a dare un senso a ciò che vedevano ponendosi, inoltre, domande esistenziali sulle nostre origini e sul nostro futuro. Manca poco quindi, e lo dico con emozione, quando NASA ed ESA avranno in orbita una coppia di strumenti formidabili per spingere la nostra conoscenza verso limiti sempre più lontani grazie ad uno strumento in più per provare a scoprire i tanti misteri che permeano, ancora, il nostro cosmo.

Gianluca Cimini

]]>
Thu, 25 May 2017 17:04:39 +0000 http://www.gianlucacimini.it/mc/526/1/hubble-da-27-anni-lo-spazio-che-conosciamo-e-meno-oscuro-e-piu-bello-grazie-a-lui gianlucacimini2016@gmail.com (Gianluca Cimini)
WannaCry: come può un attacco hacker paralizzare i pc di mezzo mondo http://www.gianlucacimini.it/mc/525/1/wannacry-come-puo-un-attacco-hacker-paralizzare-i-pc-di-mezzo-mondo

La recente cyberoffensiva hacker globale “WannaCry” ha paralizzato i pc di mezzo mondo con numeri di diffusione tanto grandi quanto impressionanti: 100 mila attacchi, 150 paesi colpiti, ospedali britannici mandati in tilt e anche 2 università italiane. Un attacco di così ampia scala non era mai accaduto prima e riporta alla ribalta un tema scottante come quello dello sicurezza informatica: i dati sono ancora provvisori e non mi sento di escludere in futuro un’ eventuale rappresaglia o un ulteriore attacco alle stesse grandi aziende ritenute fino ad oggi al sicuro dal lato oscuro del web. L’Europol ha descritto l’attacco “di un livello senza precedenti”.

Dall’Europa agli Stati Uniti, arrivando fino alla Russia e a Taiwan. Il virus, secondo quanto ricostruito da alcuni esperti, appartiene alla famiglia dei ransomware, quelli cioè che prendono in ostaggio pc e smartphone e poi chiedono agli utenti il pagamento di un riscatto (ransom), prevalentemente in bitcoin, per restituire i dati sottratti indebitamente. L’attacco, secondo la ricostruzione del Financial Times, sarebbe stato perpetrato utilizzando strumenti rubati all’Agenzia di sicurezza nazionale degli Stati Uniti, precisamente utilizzando “EternalBlue”, una cyber arma trafugata negli scorsi giorni alla NSA dal gruppo hacker Shadow Brokers. Quei software utilizzati per spiare mezzo mondo sono diventati così i mezzi per infettare migliaia di computer, bloccando le funzionalità e mettendo in ostaggio i dati degli utenti e delle società in attesa del pagamento del riscatto. La stessa Microsoft aveva tirato in ballo la NSA in un comunicato ufficiale deplorando i rischi insiti nell’arsenale di “exploit” di cui dispongono le agenzie governative e già da Marzo aveva messo a disposizione degli utenti un aggiornamento per bloccare eventuali attacchi hacker attraverso la vulnerabilità nota “EternalBlue”,due mesi, quindi, che sarebbero stati utili per proteggersi dall’eventuale attacco, che poi si è avverato veramente, e che non sono stati sfruttati a dovere. Le decine di migliaia di personal computer colpiti dal ransomware WannaCry sono, infatti, accomunati da due caratteristiche: girano su piattaforma Windows e nessuno di questi era aggiornato all'ultimo aggiornamento che la casa di Redmond aveva rilasciato. La maggior parte dei pc delle aziende, infatti, tende ancora oggi ad utilizzare software ormai vetusti e il cui supporto, in fatto di aggiornamenti e risoluzione di problematiche legate a falle nel sistema, è ormai terminato da anni.

«I governi di tutto il mondo dovrebbero considerare questo attacco come un campanello d'allarme. Bisogna adottare un approccio diverso e applicare al cyberspazio le stesse regole applicate alle armi nel mondo fisico. C'è bisogno che prendano in considerazione i danni ai civili provenienti da queste vulnerabilità. Questo è uno dei motivi per cui abbiamo chiesto a febbraio una nuova “Convenzione digitale di Ginevra” per poter governare queste questioni» questa è la posizione ufficiale di Microsoft, che con gli ultimi aggiornamenti del suo sistema operativo ostacola la diffusione del virus “WannaCry” e paragona la sottrazione dei codici NSA a quella di un furto di armi convenzionali all’esercito statunitense: è come se gli Hacker praticamente fossero riusciti a trafugare dei potenti missili Tomahawk dai depositi superprotetti di armi dell’esercito americano. Un aiuto alla situazione potrebbe arrivare dal futuro codice europeo per la protezione dei dati, che renderà obbligatorio da fine maggio per le aziende di grandi dimensioni condividere i dati di un eventuale attacco. Grazie alla condivisione si potrà conoscere il virus e creare il giusto antivirus per combatterlo. Ma la guerra silente deve anche muoversi a priori.

Ma perché siamo così vulnerabili? La risposta è semplice: si ignorano le più banali regole sulla cyber sicurezza, specie perché basterebbe scaricare un banale software per proteggersi dagli attacchi informatici. E quello che può essere un problema per un singolo utente diventa un enorme problema quando ad essere attaccati sono i computer di sedi istituzionali, ospedali, università ed altre sedi fondamentali per il mantenimento del funzionamento di un paese. A volte si rimanda, a volte si sottovaluta il rischio e così gli aggiornamenti del sistema operativo e dei software che dovrebbero essere automatici e periodicamente controllati lasciano un ampio margine per eventuali intrusioni perpetrate da hacker senza scrupoli. Non che è i server se la cavino meglio dal momento che a volte risultano non adeguati per poter ospitare sofisticate versioni aggiornate di antivirus.

Ed intanto la tensione per l’attacco hacker non tende a diminuire: sia in Gran Bretagna, il paese più bersagliato con 48 aziende ospedaliere bloccate per colpa del virus, sia in Cina, dove l’attacco ha colpito 30.000 sedi istituzionali, sia altrove regna il timore che l’attacco possa essere rinnovato. Nonostante sia ancora presto per scoprire chi ci sia dietro l’attacco e per quali ragioni, oltre a quella di prendere in ostaggio i pc per chiedere un riscatto, la conclusione di alcuni ricercatori esperti di sicurezza informatica, derivata dalla somiglianza tra quest’ultimo attacco e quello perpetrato nel 2014 contro la Sony, ipotizza che ci sia la Corea del Nord dietro il massiccio cyberattacco su scala globale che da giorni sta tenendo sotto scacco un centinaio di Paesi. Se sia vero o solo un modo per giustificare azioni di ritorsione futura nei confronti di questo paese, lo scopriremo solo con il tempo. Un evento di così grande richiamo mi auguro che possa essere lo spunto per una prossima azione collettiva urgente, sia tra stati sia tra aziende, poiché il settore tecnologico, i clienti ed i governi comincino a lavorare insieme per proteggerci dagli attacchi futuri che, pur partendo da un mondo virtuale, rischiano di sabotare la nostra vita reale. Ricordiamolo: la sicurezza informatica non è un costo ma un investimento.

Gianluca Cimini

]]>
Thu, 18 May 2017 18:43:10 +0000 http://www.gianlucacimini.it/mc/525/1/wannacry-come-puo-un-attacco-hacker-paralizzare-i-pc-di-mezzo-mondo gianlucacimini2016@gmail.com (Gianluca Cimini)
Tra SPID, CIE e CNS, il cittadino digitale italiano a che punto sta? http://www.gianlucacimini.it/mc/524/1/tra-spid-cie-e-cns-il-cittadino-digitale-italiano-a-che-punto-sta

Mi ricordo ancora quando l’Europa lanciò uno dei suoi primi piani d’azione sul governo elettronico, a inizio nuovo millennio la rete si stava pian piano diffondendo anche nelle case di molte nazioni europee e ancora più lentamente in quelle di noi italiani, ma l’entusiasmo verso un mondo motivato dallo slogan “più file meno file” era frutto dell’ottimismo e della convinzione che la rete avrebbe potuto cambiare tutto: un Internet meno caro, più rapido e sicuro; la possibilità di investire negli uomini e nelle competenze; di incentivare l'uso della rete e di liberalizzare il mercato delle telecomunicazioni. In questi quindici anni molte cose sono state fatte, molte altre no, ma nel suo complesso il sistema Paese ha perso colpi, sprecato tempo e occasioni preziose. L’Italia arranca nelle ultime classifiche europee in quanto ai servizi online messi a disposizione da enti e aziende pubbliche e private riguardo al fenomeno evolutivo dell’eGovernment.

Ormai nel 2017 poter accedere in via telematica ai numerosi servizi offerti dalla Pubblica Amministrazione (PA) è una comodità irrinunciabile. Non solo per l'utente , che può sbrigare così tutte le proprie incombenze comodamente da casa senza perdere tempo in file interminabili, ma anche per le stesse amministrazioni, che liberano risorse e tempo prezioso da destinare ad altri compiti. Confondersi, però , quando la comunicazione non è efficace e mette troppa carne al fuoco, è lecito per molti, ancora di più per chi è completamente analfabeta sui vari termini legati all’ eGovernment.: SPID, CNS o CIE, senza informazioni adeguate, rimangono solo sigle incomprensibili.

A differenza di altri paesi europei, dove esistono portali integrati per la Pubblica Amministrazione , in Italia ancora questo servizio non è presente, ma i servizi online, anche dove presenti, non sono perfettamente integrati tra loro: e pensare che è dal 2010 che tale progetto viene discusso (prima con italia.gov.it e poi con “Italia Login”)  ,ma ancora siamo costretti a cercare tra i tanti siti il servizio che ci serve nella speranza che il tutto non si traduca solo in un file da scaricare che poi ci rimandi allo sportello fisico per risolvere le nostre questioni burocratiche. Secondo la Commissione Europea siamo al 25° posto, su 28, nella classifica della “Digital Economy and Society Index 2017”. Riguardo alla Pubblica Amministrazione l'erogazione dei servizi è aumentata, ma la percentuale di utenti è scesa al 16% contro il precedente 18%, simbolo forse che i servizi sono erogati male e risultano poco accessibili.

Nata ad inizio millennio esclusivamente come strumento di identificazione in rete la Carta Nazionale dei Servizi (CNS) è uno standard di riferimento per vari tipi di carte che possono essere emesse da enti diversi: tessere dello studente, tesserini dei vari ministeri, strumento di firma per le Camere di commercio. Probabilmente già tutti la possediamo, senza esserne nemmeno a conoscenza, dopotutto, se la nostra Tessera Sanitaria è plastificata e dotata di chip dorato, teniamo una CNS nel nostro portafoglio già da anni. Se non siamo stati fino ad oggi consapevoli di averla tra le nostre mani, probabilmente è perché sia la comunicazione a riguardo da parte della PA è stata poco efficace, sia perché, in effetti, non sappiamo effettivamente come può essere utilizzata, e anche se ne venissimo a conoscenza l’iter per l’utilizzazione necessita di un lettore di smart-card e dell’attivazione della stessa presso gli sportelli abilitati della regione di appartenenza: non il massimo della semplicità e dell’efficienza.

L'altro strumento che permette l'identificazione dei cittadini è la Carta d'Identità Elettronica (CIE) di recente introduzione. Ne sono dotati 344.190 italiani e, a regime - il governo dice entro il 2018, ma anche in questo caso sarà dura rispettare i tempi - sostituirà di fatto la carta di identità cartacea nelle nazioni dell'Unione Europea e fa le veci del passaporto per il transito in molti altri stati. La carta d’identità cartacea italiana dopotutto è la più falsificata d’Europa, urge, quindi, da anni un cambiamento forte e la nuova CIE, quindi, sarà estremamente più sicura, supportando i più recenti standard in fatto di cifratura dei dati e contenendo foto e impronte digitali dell’utente. Arrivata alla sua terza versione la Carta d’identità Elettronica, dotata di un chip wireless, può essere letta dai dispositivi utilizzati dalla strumentazione di controllo presente, ad esempio, in frontiera, da lettori da tavolo commerciali e da smartphone dotati di interfaccia NFC. Per ottenere la nuova CIE 3.0 si deve andare sul sito ufficiale del Ministero dell’Interno e verificare se il proprio comune ha già attivato l’emissione, in caso negativo aspettare l’attivazione del servizio, per ora sono solo 199 su 8.000 i comuni che offrono tale servizio, ma il numero è in crescita.

CIE e CNS sono due strumenti complementari, non equivalenti, anche se entrambi possono essere utilizzati per l'accesso ai servizi erogati dalle PA, presentano però alcuni limiti tecnologici che non le rendono particolarmente versatili, né universalmente utilizzabili, aprono però le porte ad un terzo strumento, di nuova invenzione: il “Sistema Pubblico per l’Identità Digitale” (SPID) che potrebbe dare uno svolta al nostro ruolo di cittadini digitali. Ad un anno dalla sua implementazione l’SPID è un pass-partout unico per ogni servizio della PA, utile ad evitare code agli sportelli e perdere ore di lavoro utilizzabili in ben altro modo. L'elenco dei servizi di pubblica amministrazione è piuttosto ampio, circa 4.155 servizi erogati da 3.654 amministrazioni, e così, per esempio, possiamo controllare la nostra situazione INPS, INAIL, fare visure, pagare tasse e tributi, o effettuare prenotazioni varie. SPID introduce diverse novità: anzitutto, essendo completamente dematerializzata e non richiedendo l'utilizzo di un particolare supporto permette un accesso facile da qualsiasi dispositivo di fruizione, desktop, notebook, tablet o smartphone. Addio ,inoltre, alla miriade di user e password da tenere a mente per interloquire con ministeri, regioni, comuni, scuole, fisco, previdenza sociale o aziende sanitarie varie.

L'identità SPID, inoltre, si ottiene facendone richiesta ad uno degli identity provider accreditati, consentendo così a ciascun utente di scegliere liberamente il gestore di identità digitale preferito fra quelli autorizzati dall'Agenzia per l'Italia digitale (AgID), al momento tali Gestori accreditati sono cinque: Poste, TIM, Aruba, Infocert e Sielte. L’obiettivo del Governo, entro il 2017, è quello di offrire tale servizio a più di dieci milioni di cittadini italiani. Obiettivo ambizioso sicuramente, perché significa che ogni Pubblica Amministrazione deve essere in grado di interagire con la piattaforma predisposta dall'Agenzia per l'Italia Digitale, vedremo come andrà nei mesi a venire. L'identità SPID è costituita da credenziali con caratteristiche differenti in base al livello di sicurezza richiesto per l'accesso. Esisteranno tre livelli di sicurezza, ognuno dei quali corrisponderà a tre diversi livelli di identità SPID. CIE e SPID, inoltre, sono strumenti di "autenticazione forte" che permetterebbero ai comuni di identificare con certezza assoluta i cittadini partecipanti ad una consultazione online, si aprono insieme ad un futuro di “Democrazia diretta online” ma a riguardo ci sarebbe ancora molto da scrivere e discutere. Rimane, comunque, il mio pensiero che un cittadino più informato sia un cittadino meglio governato. Oggi come ieri, Internet può rispondere a questa esigenza, mettersi al servizio della complessa macchina dello Stato per riformarlo profondamente, renderlo più efficiente, più vicino alle esigenze dei cittadini, dopotutto la trasparenza può significare meno corruzione e portare ad una rinnovata fiducia nelle istituzioni.

Gianluca Cimini

]]>
Tue, 16 May 2017 20:10:36 +0000 http://www.gianlucacimini.it/mc/524/1/tra-spid-cie-e-cns-il-cittadino-digitale-italiano-a-che-punto-sta gianlucacimini2016@gmail.com (Gianluca Cimini)
Biotecnologie e longevità: come cambierà la nostra vita - di Gianluca Cimini http://www.gianlucacimini.it/mc/523/1/biotecnologie-e-longevita-come-cambiera-la-nostra-vita---di-gianluca-cimini

“Forever Young, i want to be forever young” cantavano gli Alphaville nel 1984, e se adesso nel 2017 ancora non si può rimanere eternamente giovani, sicuramente grandi passi sono stati fatti per regalarci una vita più longeva nonché migliore grazie alla combinazione dello studio del DNA e all’avvento delle biotecnologie (il cui termine deriva proprio da βίος, bìos = "vita" , τέχνη (téchne), "arte" nel senso di "perizia", "saper fare", "saper operare", e λόγος, lògos = “studio”). Le biotecnologie, grazie all’applicazione e allo studio di qualunque tecnologia sviluppata o sviluppabile dall’uomo nel campo della biologia, vengono, infatti, impiegate in molti campi di ricerca: dalla Bioingegneria, alla Biofisica, passando per l’Ingegneria genetica, senza escludere il campo delle farmacologia e della medicina, ed ancora il biorisanamento (ossia il trattamento, riciclo e la bonifica dei rifiuti attraverso microrganismi attivi). Riprendendo una delle definizioni più complete disponibili possiamo affermare che “La biotecnologia è l'applicazione tecnologica che si serve dei sistemi biologici, degli organismi viventi , o di derivati di questi , per produrre o modificare prodotti o processi per un fine specifico.”

Pur non servendosi di microrganismi, sono classificate come biotecnologie anche le nuove terapie mediche o alcuni innovativi strumenti diagnostici, come per esempio le tecniche di DNA e RNA microarray utilizzate in genetica ed i radiotraccianti utilizzati in medicina. E gli esperti del settore Biotech, come il genetista Edoardo Boncinelli, avvertono: “Siamo vicini ad un salto quantico, sarà un gioco da ragazzi modificare tutti i genomi, compreso il nostro. Il cosiddetto taglia-incolla del DNA non rappresenta un grosso cambiamento concettuale, ma lo è da un punto di vista pratico perché permette di modificare il DNA velocemente, a basso prezzo e con un’enorme precisione.” E così mentre ancora si parla e discute di OGM in Italia, gli esperti del settore si dicono già pronti a fare il grande salto, ossia “ritoccare” geneticamente anche gli esseri viventi, ma prima ci sarà da preparare la gente all’evento. Uno scenario dove sicuramente esiste ancora troppa diffidenza ed ignoranza sull’argomento e probabilmente molti sono ancora impreparati ad affrontare il tema, proprio per questo gli anni a venire saranno fondamentali per capire quanto la Biotecnologia potrà portare dei benefici reali alla nostra vita futura.

L’importanza delle biotecnologie si estende ben oltre il potenziale economico, poiché riguarda anche la vita quotidiana degli esseri umani. Come diceva il Dottor Veronesi: “La durata della nostra vita è geneticamente codificata. Intervenendo sui geni la si può estendere”. Dai miti greci al “Ritratto di Dorian Gray”, passando per la leggenda di Faust, allungare la vita è sempre stato il sogno degli esseri umani.

Due nuovi studi, pubblicati su Science e Cell in questi giorni, stanno cercando di azzerare i danni al DNA creati normalmente dall’avanzare del tempo, stimolando il rinnovamento dei tessuti per mantenerli eternamente giovani. Lo studio è già riuscito a fermare il tempo biologico sui topi di laboratorio ma potrebbe in futuro aiutare i malati di cancro o essere utilizzato su persone sane ma esposte a fattori di rischio elevati come gli astronauti impegnati nelle future missioni dirette su Marte. Il farmaco in questione agisce potenziando l’azione di una molecola naturalmente presente nelle cellule ed accelera i meccanismi di riparazione del DNA riuscendo così a cancellare i danni causati dall’invecchiamento e dall’esposizione alle radiazioni. Un elisir di lunga vita, quindi, capace di indurre al suicidio le cellule più anziane dell’organismo risparmiando però quelle normali e senza causare effetti collaterali. La fantascienza entra nell’ordinario così e il prossimo passo sarà la sperimentazione sull’uomo. Altre ricerche prevedono invece che biomateriali, somministrati attraverso una speciale bomboletta spray sulla superficie del cuore danneggiato da infarto, possano formare un gel capace di riparare il cuore senza bisogno di punti di sutura e di chirurgia a torace aperto, una notevole evoluzione, quindi, dei già esistenti cerotti rigenerativi sperimentati fino ad oggi che necessitano però ancora di essere innestati direttamente a contatto con gli organi che desiderano proteggere.

La ricerca dell’elisir , oltre ad affascinare molti, è uno dei temi più intriganti nel mondo della biotecnologia, probabilmente anche per questo l’azienda con sede a Londra “Tiziana Life Sciences” ha comprato nel 2016 il DNA di 13.000 sardi dalla regione Sardegna per condurre studi legati alla ricerca contro il cancro e contro le malattie del sistema immunitario. Quella dell’Ogliastra, nella Sardegna centro-orientale, è infatti la zona al mondo con la più alta proporzione di centenari insieme all’isola giapponese di Okinawa. Obiettivo dello studio trovare il legame fra patrimonio genetico e longevità. Costo dell’operazione 258.000 euro, ma i politici locali dicono che questa operazione di lunga gittata avrebbe un valore molto maggiore, forse superiore ai 4 milioni di euro.

Il rapporto 2016 “Le imprese di biotecnologie in Italia” (redatto da Assiobiotec con la collaborazione di Enea) fotografa un settore nazionale comprendente circa 500 imprese capaci di fatturare oltre 9,4 miliardi di euro e con previsioni di crescita a due cifre per i prossimi anni. Più di 9.200 persone sono impegnate in questo settore ad alta intensità di ricerca dove la quota di addetti in ricerca e sviluppo è molto alta (circa cinque volte per esempio rispetto all’industria manifatturiera). A frenare un settore pronto ad espandersi sono ancora una volta: burocrazia, frammentazione, poco trasferimento tecnologico e misure di supporto strutturale ancora poco competitive. Quello che si augurano i critici del settore, e che mi aspetto da tempo anche io, è l’istituzione di una cabina di regia centrale e comune per l’intero sistema capace di coordinare ed organizzare i vari interventi legati alla ricerca ed all’innovazione, individuando le priorità ed indirizzando le eventuali risorse disponibili. 

Gianluca Cimini

]]>
Sun, 14 May 2017 09:46:45 +0000 http://www.gianlucacimini.it/mc/523/1/biotecnologie-e-longevita-come-cambiera-la-nostra-vita---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Imprese familiari e logiche di governance a loro associate - di Gianluca Cimini http://www.gianlucacimini.it/mc/522/1/imprese-familiari-e-logiche-di-governance-a-loro-associate---di-gianluca-cimini

Nate inizialmente in relazione alle società a capitale aperto, sia quotate sia partecipate, le tematiche relative alla corporate governance, a seguito della trasformazione del mercato dei capitali ed all’evoluzione dei rapporti banca-impresa, ultimamente si stanno indirizzando anche verso quelle società private, a capitale chiuso, il cui controllo risponde a gruppi familiari con l’eventuale partecipazione di soci di minoranza, non finanziari, con ruoli diretti o indiretti nella gestione aziendale. Come anticipato, tale tentativo di applicare i concetti e i principi della corporate governance alle società private nasce dai nuovi rapporti banche-imprese definiti dalle regole stabilite dal Comitato di Basilea, ossia quelle regole che richiedono modalità di finanziamento più strutturate, con parametri di valutazione delle imprese più oggettivi e con una maggiore attenzione ai piani di sviluppo aziendali e agli assetti societari e di governo aziendale. Quando si parla di aziende familiari e di corporate governance è opportuno prima dare una definizione precisa di cosa effettivamente sia, a prescindere dallo status di società quotata, partecipata o privata, un’azienda familiare ossia: quell’impresa di capitali dotata di un’autonoma struttura economica e patrimoniale, la cui proprietà ed il cui governo aziendale sono controllati o da un’unità familiare semplice (intesa come un individuo, anche insieme al coniuge, che possiede la maggioranza del capitale sociale e che governa l’impresa con l’obiettivo della continuità e della successione ai propri eredi, che assumeranno il controllo della proprietà e della gestione aziendale), o da un’unità familiare complessa (ed in questo caso ci riferiamo ad un insieme di individui legati da vincoli familiari diretti che possiedono collettivamente la maggioranza del capitale sociale, i cui componenti partecipano al governo dell’impresa mediante il possesso delle quote societarie e/o la presenza a vario titolo negli organi societari e/o nelle strutture direttive e operative dell’impresa), o, infine, più unità familiari che singolarmente non hanno la maggioranza del capitale sociale e che governano congiuntamente l’impresa con accordi statutari e parasociali. Sono due le forme di controllo a cui, in una logica di governo, possono rispondere le aziende familiari: quella concentrata, nel caso di titolarità nelle mani di un unico soggetto o di un unico gruppo familiare con una struttura semplificata, o quella allargata, nel caso di titolarità formata da più unità familiari o di un’unità familiare formata da più individui. Rispetto a quelle quotate e partecipate, inoltre, le aziende familiari private si differenziano per alcune particolarità come:

  • la sovrapposizione tra il controllo, la partecipazione al capitale sociale ed il management (in cui le differenze tra soci di controllo e soci di minoranza sono più limitate e fondate su rapporti interrelati, questo porta anche a logiche di successione che sono più predeterminate perché i soggetti che sono destinati a subentrare nella proprietà e nella possibile condizione aziendale rispondono a ragioni ereditarie);
  • ma anche dalla commistione e l’interdipendenza tra il patrimonio familiare e quello aziendale che, anzi, risulta proprio uno dei tratti più rilevanti per la governance delle aziende familiari private (il patrimonio aziendale può essere, infatti, utilizzato per accedere a fonti di capitale che sono finalizzate a soddisfare finalità ed interessi del gruppo familiare esterni a quelli dell’azienda);
  • nonché dalla presenza e la rilevanza di modalità di rapporti informali nei processi di governo aziendale che influenzano e determinano le dinamiche delle formali strutture e procedure societarie e aziendali, portando così le istanze di governance per le aziende familiari private ad essere più complesse nella loro applicazioni rispetto ad altri casi;
  • l’ultima differenziazione è, invece, la mediazione tra le finalità di lucro delle attività d’impresa e quelle che rispondono agli interessi e ai valori individuali e collettivi del gruppo familiare, per cui gli obiettivi ed i livelli di remunerazione del capitale investito possono essere compensati dall’esigenza di soddisfare altre istanze.

La relazione tra famiglia, proprietà e impresa e tipologie di aziende familiari può essere inoltre descritta in maniera più chiara attraverso il famoso “modello dei tre cerchi di Tagiuri e Davis” (1982 e 1996) in cui ci si riferisce alla proprietà, alla famiglia e all’impresa come a tre gruppi distinti che vengono sempre più a contatto a seconda della diversa tipologia di azienda interessata, e, quindi, i legami aumentano passando dalle aziende familiari quotate, crescendo in quelle partecipate fino quasi a confluire in quelle private. In maniera più precisa nelle aziende quotate, la famiglia la proprietà e l’impresa hanno relazioni contigue, ma distinte, perché debbono rispondere ai requisiti e alle condizioni dei mercati regolamentati che garantiscono gli interessi degli investitori e dei risparmiatori e la corretta, nonché trasparente ed equilibrata negoziazione dei titoli azionari. In quelle partecipate, invece, le relazioni tra i tre gruppi sono più integrate tra loro, anche se debbono ancora essere gestite e regolate con un’adeguata distinzione per garantire l’interesse dei terzi investitori. Nelle aziende private, infine, si presenta una fisiologica sovrapposizione tra la famiglia, la proprietà e l’impresa e, proprio per questo, le regole di governance debbono essere strutturate per garantire che le relative relazioni siano funzionali a soddisfare i diversi interessi e la capacità di sviluppo e di continuità delle attività aziendali. Riassumendo, le aziende familiari private coniugano i tratti propri delle imprese commerciali che perseguono le finalità primarie della produttività, della competitività e della remuneratività del capitale investito con quelli propri delle imprese cooperative in cui prevalgono i valori fondamentali della comunità d’interessi, della partecipazione dei soci alle attività aziendali e della solidarietà tra tutti i partecipanti alla base sociale. Le criticità delle politiche di governance aziendale, infine, nascono proprio, a mio avviso, dalla capacità di soddisfare, e al tempo stesso, strutturare i valori e le relazioni familiari che sono in larga misura di tipo informale e difficilmente inquadrabili in regole e procedure formali.

Gianluca Cimini

]]>
Mon, 8 May 2017 20:06:35 +0000 http://www.gianlucacimini.it/mc/522/1/imprese-familiari-e-logiche-di-governance-a-loro-associate---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Dall’Apollo 16 a Space X: l’esplorazione spaziale continua a far sognare http://www.gianlucacimini.it/mc/521/1/dall-apollo-16-a-space-x-l-esplorazione-spaziale-continua-a-far-sognare

Sono passati 45 anni da quanto la missione Apollo 16 della Nasa, precisamente il 21 aprile 1972, atterrava per la quinta e penultima volta sulla Luna. Partita dal Kennedy Space Center a Cape Canaveral, in Florida, la decima missione del programma spaziale statunitense Apollo si concluse 11 giorni dopo con un “tuffo” nell’Oceano Pacifico, (non senza difficoltà dal momento che tre giorni dopo il lancio, il sistema di navigazione computerizzato smise di funzionare correttamente e gli esperti astronauti dovettero determinare la loro posizione attraverso un classico e semplicissimo sestante e non con strumenti altamente sofisticati o tecnici). Quella fu la prima volta che una missione Apollo raggiungeva gli altopiani della Luna, un luogo scelto per permettere agli astronauti di raccogliere materiali geologici più antichi rispetto a quelli raccolti nelle quattro missioni precedenti (e che permise di riportare sulla terra, oltre a dati ed informazioni uniche,  anche 95,8 chilogrammi di campioni lunari per analisi più approfondite). L'atterraggio sulla superficie lunare per la prima volta non poté essere trasmesso in diretta televisiva, dato che la stazione trasmittente del modulo lunare si era guastata. Solo dopo che fu montato il trasmettitore del rover lunare, si poté iniziare a trasmettere le prime immagini dei lavori sulla Luna eseguiti durante questa missione. Dei tre partecipanti alla missione solo il comandante John Young e il pilota del modulo lunare Charles Duke, toccarono il suolo della Luna, mentre Ken Mattingly rimase a bordo del modulo di comando. I due astronauti trascorsero così 71 ore sulla superficie del nostro satellite, durante le quali condussero tre ‘passeggiate’ lunari che durarono complessivamente 20 ore e 14 minuti, utilizzando in queste passeggiate per 26,7 chilometri il rover lunare LRV alla sua seconda missione.

In 45 anni la conquista allo spazio ha subito rallentamenti ed accelerazioni varie, ad oggi però solo dodici fortunati eletti nella storia dell’umanità hanno avuto l’occasione e la possibilità di camminare sul nostro satellite. Astronauti che hanno ispirato una generazione, e che non sarebbe sbagliato considerare vicini a nomi di grandi esploratori “terrestri” come Cristoforo Colombo o Roald Amundsen, che hanno saputo spostare, non senza difficoltà, il limite estremo della frontiera sempre un pò più avanti sia sulla Terra sia sullo Spazio. "Era un luogo incontaminato e ovunque andassi sapevo che nessuno era mai stato là prima, quindi era da brividi” ha raccontato Charles Duke riguardo alla sua missione a bordo dell’Apollo 16. La descrizione della Luna fatta da Duke ci riporta “un deserto senza vita, senza atmosfera, ma con una bellezza particolare. […] Come colore era in gran parte grigio, con forti contrasti fra l'oscurità dello spazio e la luminosità della superficie esposta al sole.” Ma è curioso anche ricordare che, di fronte a tanta bellezza, l’espressione di stupore di Charles Duke alla sua prima passeggiata sul suolo lunare fu in un imperfetto italiano: “Mamma Mia!”.

Quelle di 45 anni fa erano sicuramente settimane colme di entusiasmo e di sogni verso uno spazio lontano, ma che si faceva sempre più vicino. Erano gli anni subito dopo lo sbarco sulla Luna, ed erano i giorni del lancio di Apollo 16, la quinta missione a portarvi delle persone. Erano gli anni in cui in radio  passava, con la voce di Elton John, la storia di un astronauta che salutava sua moglie e la sua terra prima della sua missione spaziale: “I’m a rocket man – (Sono un uomo razzo) Rocket man burning out his fuse up here alone – (Uomo razzo che sta fondendo le sue valvole qui da solo)”. Il tema spaziale era stato già affrontato nella musica pop con grande successo da una canzone che rimane ancora oggi una delle musiche che meglio accompagnarono quegli anni di conquiste spaziali: Ground Control to Major Tom - Commencing countdown, engines on - Check ignition and may Gods love be with you cantava un giovane David Bowie ancora prima di diventare lui stesso uno “Starman waiting in the sky”, via di mezzo tra un uomo e un alieno pronto a portare sulla terra un messaggio di pace e speranza sotto forma di musica.

A distanza di anni le missioni Apollo sono state, a mio parere, tra le più grandi avventure nella storia dell’umanità e, anche fra un migliaio di anni, sicuramente , verrano ricordate con lo stesso entusiasmo che sto esprimendo io adesso. Proprio quando era iniziata con successo l’attività di ricerca ed esplorazione della Luna, la modifica dell’indirizzo politico americano di quegli anni decretò la fine delle missioni lunari, nonostante esistessero, ormai, l’equipaggiamento e la tecnologia necessarie per ancora grandi scoperte ed avventure. Sino ad oggi abbiamo una base scientifica orbitante intorno alla terra, ma nessuno può escludere che un giorno una base scientifica fissa e stazionaria sulla Luna non potrebbe rientrare nei piani dei governi mondiali: Russia e Cina stanno già pianificando nei loro programmi spaziali di mandare nuovamente dei cosmonauti sul nostro satellite entro il 2029.

Se le previsioni poi si riveleranno vere, dopo la Luna la nostra frontiera dovrebbe spostarsi ancora un po’ più in là così da raggiungere, per la prima volta con un equipaggio umano, Marte entro il 2030. L’inizio di una nuova era spaziale, come avevo già scritto settimane fa, è ormai all’occhio di tutti grazie alle nuove tecnologie messe in campo da governi mondiali e da filantropi magnati come Elon Musk. L’impresa di SpaceX, con il successo legato al riutilizzo di un razzo spaziale “riciclato”, chiude simbolicamente un capitolo della storia dell'esplorazione spaziale e ne apre un altro, quello della sfida per far diventare ordinari i lanci, gli atterraggi e le ripartenze dei razzi, a costi inferiori e con tempi molto ristretti rispetto a quelli che sono lo standard di oggi. Più i costi per le missioni spaziali si abbasseranno e più sarà possibile cimentarsi in qualcosa di sempre più grande e avventuroso. Siamo ancora in una fase sperimentale, ma la concezione avuta fino ad oggi riguardo alle missioni spaziali sta mutando.

Gianluca Cimini

]]>
Sat, 6 May 2017 17:01:55 +0000 http://www.gianlucacimini.it/mc/521/1/dall-apollo-16-a-space-x-l-esplorazione-spaziale-continua-a-far-sognare gianlucacimini2016@gmail.com (Gianluca Cimini)
E-Sim, l’evoluzione della comunicazione mobile abbraccia l’IoT http://www.gianlucacimini.it/mc/520/1/e-sim-l-evoluzione-della-comunicazione-mobile-abbraccia-l-iot

Una volta era la SIM, acronimo di “Subscriber Identity Module”, la piccola smart card dotata di chip elettronico capace di archiviare in modo sicuro il numero univoco associato a tutti gli utenti di telefonia mobile di reti GSM o UMTS al momento della stipula di un contratto telefonico. Si inseriva nel telefono cellulare e da quel momento la nostra “identità mobile” era pronta a comunicare con il mondo. La prima SIM risale al 1991 e nasce grazie all’azienda Giesecke & Devrient di Monaco di Baviera.

Con il tempo abbiamo visto evolversi questa smart card verso forme fisiche sempre più piccole (l’ultimo modello che si trova sui cellulari di ultima generazione si chiama addirittura “nano”) ed allo stesso tempo con capacità di memoria ed affidabilità sempre maggiori. Meno spazio fisico necessario per archiviare i dati univoci del possessore del telefono attraverso la SIM permettono, inoltre, ai costruttori di cellulari di avere più libertà nella progettazione degli smartphone del futuro grazie a millimetri fisici liberi da utilizzare per nuovi componenti hardware più performanti. Non è un caso, infatti, che gli ultimi telefoni, o oggetti di design e di status sociale per alcuni, ne facciano sempre più uso alla ricerca forsennata del cellulare dal design più essenziale e funzionale possibile. Con l’introduzione e l’inizio della produzione nel 2016 della cosiddetta E-SIM (ossia Embedded Subscriber Identity Module) la rivoluzione della telefonia mobile non cessa di continuare ma anzi potrebbe stravolgere per sempre il mondo dei gestori telefonici con possibili vantaggi sia per i produttori di telefoni, sia per gli operatori. Senza dimenticare tutti gli utenti telefonici. La vecchia SIM, diventata prima “micro” ed infine “nano” per permettere la creazione di prodotti sempre più piccoli e compatti, vede nella sua più moderna versione la sparizione totale del “pezzetto di plastica” e la nascita di un chip, già inserito dai produttori nello smartphone, in grado di gestire le informazioni di sicurezza, autenticazione e connessione per uno o più operatori. Cosa significa questo?

La possibilità per l’utente di avere diversi contratti ed operatori su un unico terminale e di poter passare velocemente dall’uno all’altro, a seconda delle esigenze del momento, potendo associare più profili tariffari ad uno stesso dispositivo. Inoltre senza il bisogno di cambi fisici delle varie SIM anche le operazioni di cambio di gestore potranno essere velocemente gestite online con estrema semplicità. Anche la sicurezza vedrà un incremento poiché, a differenza del passato quando si doveva bloccare la SIM persa o rubata, adesso basterà effettuare nuovamente il login dal nuovo device e disattivare quello precedente senza perdita di dati. Il rischio, di fronte ad una vantaggiosa possibilità di cambiare operatore e tariffe online, potrebbe essere quello che, con il tempo, diminuiscano i vari negozi fisici degli operatori telefonici. Se è vero, da una parte, che l'attuale modello di business potrebbe essere stravolto, dall'altra si potrebbe assistere ad un vero e proprio abbattimento dei costi, eliminando progressivamente i punti vendita ed avviando offerte e campagne winback totalmente online, con la possibilità di potersi accaparrare clienti in maniera più veloce ed efficace. Per i produttori di telefonia il vantaggio si applica, invece, nella progettazione dei futuri smartphone, specie nei casi di quelli unibody impossibili da aprire, con la cessazione dell’utilizzo di “carrellini fisici” a scomparsa per inserire la vecchia SIM all’interno del terminale: più spazio guadagnato, come dicevamo, vuol dire più spazio utilizzabile per altri componenti hardware fondamentali per il telefono come batteria o altro.

In commercio esistono già dei pionieri di questa nuova tecnologia: Apple e Samsung. La prima nel 2014 aveva già introdotto la sua SIM virtuale all’interno di “iPad Air 2”, in quel caso un semplice menù all’interno del software del tablet dava all’utente la possibilità in fase di attivazione di scegliere un operatore ed un piano tariffario legato al suo iPad semplicemente scorrendo tra le varie opzioni dei menu di configurazione. Samsung, invece, ha presentato nel 2016 il suo smartwatch “Gear S2 Classic 3G” con supporto integrato alle E-SIM, in quel caso configurazione e scelta delle tariffe potevano essere effettuate semplicemente abbinando il wearable allo smartphone.

La vera rivoluzione, a mio avviso però, sarà quella legata all’IoT (internet of things) che coinvolgerà a brevissimo smartwatch, sensori vari ed elettrodomestici della casa del futuro, che necessiteranno sempre di più di essere connessi alla rete per sfruttare tutte le loro nuove caratteristiche. In questo caso il supporto da parte delle telco è totale, in quanto consentirà di aprire un vero e proprio segmento di mercato oggi praticamente inesplorato. Uno studio focalizzato sulla forte crescita del numero di dispositivi M2M e IoT induce a prevedere che la distribuzione di e-SIM supererà quello delle carte SIM tradizionali nel corso dei prossimi anni. Secondo un'indagine condotta da Juniper Research, entro il 2020 la eSIM rappresenterà oltre il 50% delle connessioni M2M (machine-to-machine, quelle appunto inserite nei vari dispositivi connessi). Dotando sin dalla fabbrica gli apparecchi di E-Sim, gli operatori delle telecomunicazioni non si ritroverebbero più a fungere da intermediari come accade nel presente: il terminale diventa, quindi, parte attiva, scartando una compagnia per un’altra sulla base del criterio del campo disponibile: il numero di telefono associato alla SIM, si libera dal vecchio vincolo dell’appartenenza ad un brand piuttosto che un altro, superando anche il concetto di roaming. Grazie all’eSIM, inoltre, smartwatch e smartband non avranno più bisogno di essere costantemente collegati al proprio smartphone via Bluetooth, in quanto essi potranno godere di connettività “propria”, garantita dalle reti GSM e dalle loro evoluzioni (3G, LTE), il tutto senza dover collegare alcuna scheda al dispositivo. Prodotti come automobili, wearable, elettrodomestici (solo per citarne alcuni), cominceranno ad essere realizzati con a bordo proprio questa soluzione, che consentirà di poter definitivamente far esplodere il fenomeno della Internet of Things, aprendo alle telco un mercato da miliardi di dollari.

Gianluca Cimini

]]>
Tue, 2 May 2017 17:49:15 +0000 http://www.gianlucacimini.it/mc/520/1/e-sim-l-evoluzione-della-comunicazione-mobile-abbraccia-l-iot gianlucacimini2016@gmail.com (Gianluca Cimini)
Shenzen, dove la Cina tenta di diventare la nuova Silicon Valley http://www.gianlucacimini.it/mc/519/1/shenzen-dove-la-cina-tenta-di-diventare-la-nuova-silicon-valley

Dal 1971, anno in cui per la prima volta è stato coniato il nome corrente dal giornalista Don C.Hoefler, la cosiddetta “valle del silicio” è stata il paradiso mondiale per innovatori, startup ed industrie pronte a lanciarsi sul mercato tecnologico, in primis come fabbricanti di semiconduttori e di microchip, e a seguire per produttori di software e fornitori di servizi di rete attratti dalle caratteristiche peculiari della “Bay area” che si trova nella parte meridionale dell’area metropolitana della Baia di San Francisco. La Silicon Valley, diventata quasi un luogo mitologico di culto, ha visto crescere esponenzialmente fin dal 1939, anno di fondazione dell’ Hewlett-Packard, prima grande azienda di elettronica civile a stabilirsi nell’area, il numero di aziende ad alta tecnologia che hanno deciso di creare il loro quartiere generale in questa mitica parte d’America: Apple, Amazon, Cisco, Ebay, Facebook, Google, Intel, Microsoft, Netflix, Paypal, Samsung, Yahoo, solo per citarne le principali. Per decenni la Silicon valley è stata il posto dove le idee, specie se innovative, diventavano realtà: con un livello di disoccupazione minore del 15%, qui chiunque abbia competenze, passione e voglia di fare, ha buone possibilità di trovare un lavoro adeguato. L’ossessione per i grandi manager è di puntare alla gente giovane e volenterosa, ma soprattutto alle grandi idee che potrebbero diventare il business del futuro. Il dinamismo qui, più che in altre parti del mondo, inutile citare la situazione italiana che tutti un po’ conosciamo, è un valore aggiunto tra i più importanti. E mentre in America per questo 2017 si punta molto alle tecnologie legate alla Realtà Virtuale e alla Realtà Aumentata, all’avvento della Smart Home, alle Intelligenze Artificiali ancora più evolute, all’Internet delle Cose e a molte altre scommesse che potrebbero decretare il prodotto o l’idea del futuro, l’altra parte del mondo non sta a guardare con le mani in mano.

Trentasei anni, questo il tempo che c’è voluto per far diventare un villaggio di pescatori immerso dentro la natura una megalopoli da più di 10 milioni di abitanti, fatta di grattacieli altissimi e di uno skyline in continuo mutamento, capace di produrre da sola il 30% del PIL nazionale cinese. A più di diecimila chilometri di distanza dalla California così “Shenzen", nel sud della Cina, sfida l’America per salire al primo posto nel business delle telecomunicazioni. Le distanze con la Silicon Valley, grazie al supporto della Repubblica Popolare Cinese su sovvenzioni e prestiti, oggi si accorciano sempre di più. Trentasei anni, il periodo in cui il PIL medio di Shenzen è cresciuto con un tasso medio annuo del 22%, una cifra quasi impossibile da immaginare, specie se come me aveste visto le foto di quel piccolo villaggio di pescatori scattate nel 1980. Un boom che si è verificato non solo, però , grazie al supporto dello stato cinese, ma anche alle tante aziende statunitensi che su quel territorio hanno puntato negli anni per delocalizzare, ovviamente con spese minori rispetto al suolo americano, la produzione hardware. All’inizio degli anni ottanta, come accennato, sono arrivati, quindi, i primi investimenti stranieri spinti dalle condizioni fiscali favorevoli offerte dal governo. Investire subito e regolamentare successivamente è stato il motto della città, infatti, che ha giustificato solo a posteriori l’immane ingresso di fondi internazionali grazie ad un quadro giuridico costruito ad hoc.

Shenzhen, città industriale nella provincia meridionale di Guangdong, può essere definita oggi senza dubbio la Cupertino cinese. Anche perché, dopotutto, tutti gli iPhone della “mela” vengono costruiti qui, nella gigantesca azienda chiamata “Foxconn” che dà lavoro a più di un milione di lavoratori a suon di tablet e smartphone costruiti con tecniche avanzatissime a fronte di una manodopera sicuramente “conveniente”, ma non per questo di scarsa qualità. Leggi differenti o anche la mancanza di una regolamentazione precisa sui diritti dei lavoratori permettono a queste grandi aziende di “ottimizzare” il lavoro a fronte di turni lunghi, ripetitivi e massacranti. Da quello che rivelano i racconti di certi ex operai le condizioni di lavoro nelle fabbriche cinesi non sono delle migliori, anzi, tutto si riduce magari in un turno di 12 ore a compiere lo stesso movimento meccanico di inserimento di una vite nella parte posteriore di uno smartphone per circa 1800 volte al giorno, con poche pause e il controllo assoluto sulla catena di montaggio così da rimproverare i lavoratori poco efficienti togliendo denaro dallo stipendio. Triste sentire che il bene dei lavoratori probabilmente viene subordinato alla produzione industriale, sicuramente sono notizie che non sorprendono, ma che continuano a fare male.

Anche il terzo produttore di smartphone al mondo dopo Apple e Samsung ha il suo quartiere generale qui e prodotti sempre più venduti anche in Italia arrivano da noi con il marchio “Huawei”. Una città nella città, praticamente, dove lavorano e vivono dentro 3200 appartamenti circa 50 mila persone. Un’azienda in crescita capace non solo di seguire le altre aziende leader del settore, ma anche di impegnare parte del proprio fatturato nel campo della Ricerca e Sviluppo con cifre ragguardevoli ( il 10% del proprio fatturato annuale va a questa divisione di fronte ad un 3,5% nel caso di Apple nella stessa divisione, per esempio) con l’obiettivo di passare da semplici produttori ad innovatori mondiali; e qui basta leggere i dati aggiornati riguardanti l’incremento esponenziale dei brevetti in ambito tecnologico registrati in Cina a partire dagli anni 2000 per capire quanto ormai la grande Repubblica Popolare Cinese si appresti ad insidiare l’America in questa particolare classifica. Un obiettivo portato avanti anche grazie all’importanza data alla formazione dei lavoratori nel settore hi-tech: Huawei per esempio ha lanciato il programma “0” per offrire corsi di alta formazione a circa duemila studenti europei nei prossimi cinque anni.

Modernità ed innovazione si incontrano così a Shenzen, nella città che da sola riprende molte delle sfaccettature e delle contraddizioni della Repubblica Popolare Cinese, dove prende forma il futuro in una città in divenire sospesa tra un passato rurale e un presente in cui il mantra è il consumo e l’obiettivo crescere e dominare il mercato.

Gianluca Cimini

]]>
Thu, 27 Apr 2017 22:17:56 +0000 http://www.gianlucacimini.it/mc/519/1/shenzen-dove-la-cina-tenta-di-diventare-la-nuova-silicon-valley gianlucacimini2016@gmail.com (Gianluca Cimini)
Earth Day 2017: il mondo delle rinnovabili è in continua crescita - di Gianluca Cimini http://www.gianlucacimini.it/mc/518/1/earth-day-2017-il-mondo-delle-rinnovabili-e-in-continua-crescita---di-gianluca-cimini

Giunta ormai alla quarantasettesima edizione, torna il 22 aprile la “Giornata Mondiale della Terra”, un’occasione per ricordarci quanto importante sia salvaguardare il nostro pianeta promuovendo cambiamenti nelle politiche e nei nostri modi di vivere quotidiani. Fortemente voluta dal senatore statunitense Gaylord Nelson, e nata il 22 aprile 1970 come movimento universitario ecologista, “l’Earth Day” coinvolge ogni anno fino a un miliardo di persone sul pianeta grazie a manifestazioni che si svolgono nelle piazze più importanti del mondo, ed anche in questo caso l’Italia non sarà da meno, grazie a numerosi eventi ed iniziative per commemorare e salvaguardare il nostro pianeta (in primis e per il quarto anno consecutivo Villa Borghese a Roma ospiterà dal 21 al 25 aprile il “Villaggio per la Terra” dove si parlerà principalmente del tema “Educazione ambientale in festival”). Nato in America (a seguito del disastro ambientale di Santa Barbara nel 1969) l’Earth day si è, quindi, largamente diffuso a livello globale a partire dall’anno 2000 presentandosi come un momento unico per affrontare molte delle problematiche contro cui il nostro pianeta si trova a dover combattere: dalla distruzione degli ecosistemi all’inquinamento di aria, acqua e suolo, dall’esaurimento delle risorse non rinnovabili all’estinzione di migliaia di piante e specie animali. “Se lo scorso anno abbiamo festeggiato lo storico accordo sul clima di Parigi, che vedeva uniti i 193 Paesi dell’ONU nella volontà di contenere le emissioni di C02, quest’anno Earth Day Italia vuole lanciare un messaggio forte e di stimolo nei confronti di tutte quelle politiche che, cavalcando il generale clima di sfiducia e rabbia, alzano muri e continuano a sfruttare senza remore le risorse naturali. Con il Villaggio per la Terra vogliamo mettere in scena e in festa il sentimento di solidarietà universale che esiste ancora, potente, tra le persone e che è capace di generare il cambiamento. Per questo invito tutti i cittadini a unirsi e partecipare” questo l’augurio di Pierluigi Sassi, presidente di Earth Day Italia.

Un evento di così importante spessore mi ha dato modo di pensare ancor di più a come effettivamente ci si stia muovendo sul tema dell’ecologia e dell’energia sulla terra, perché anche se già un miliardario filantropo come Elon Musk sta parlando della colonizzazione di Marte e dei viaggi spaziali che inizieranno a breve, sarà ancora il nostro pianeta Terra a doverci accogliere per ancora qualche annetto. Il continuo innovare di Tesla, azienda leader di Elon Musk, che non produce solo automobili, ma si occupa anche di elettricità, vuole essere uno spunto per tutto il mondo a passare all’energia rinnovabile, l’idea è facilmente comprensibile ed altamente affascinante: vivere in un mondo capace di abbandonare l’utilizzo dei combustibili fossili per il suo fabbisogno energetico. Nei calcoli del magnate, con l’ausilio di 100 Gigafactory a pieno regime sarebbe possibile produrre energia rinnovabile per il mondo intero. Una Gigafactory non è altro che un enorme fabbrica di batterie di Tesla alimentate ad energia solare, citata anche nel documentario di Leonardo Di Caprio sul riscaldamento globale, che si sta ultimando in Nevada negli Stati Uniti. Una volta completata la fabbrica sarà più grande di 100 campi da calcio messi insieme e fornirà lavoro a più di 22 mila persone. Cifre importanti ed altissime a parte, l’obiettivo immediato sarà quello di ridurre i costi delle batterie per i prodotti Tesla, ma subito dopo il progetto potrebbe interessare numeri ancora più grandi se , effettivamente, le affermazioni di Musk su un mondo alimentato totalmente da energia sostenibile fossero veritiere. Staremo a vedere, sicuramente ogni affermazione dell’eccentrico magnate riesce sempre a lasciarmi con domande e temi interessanti a cui dedicarmi con maggiore concentrazione. Come se lo scopo ultimo delle sue aziende fosse quello di regalare al mondo un futuro migliore, ultimamente Musk ha affermato sul tema, a favore dei paesi in via di sviluppo e con una popolazione sempre più numerosa, che: «Il vantaggio di avere batterie che si ricaricano con l’energia solare è che si può evitare di costruire centrali elettriche. Un villaggio sperduto può ricavare l’energia che gli serve da batterie alimentate col sole, senza dipendere da migliaia di tralicci ad alta tensione. È più o meno quello che è già successo con le linee telefoniche: nei paesi in via di sviluppo non hanno costruito le linee telefoniche fisse, ma sono passati direttamente a quelle mobili».

Un mondo sempre più “green” è anche quello che viene descritto da uno studio commissionato da Greenpeace e realizzato dal centro di ricerca CE Delft, che analizza le politiche e la situazione dei singoli paesi europei: entro il 2050 metà dei cittadini europei genererà da solo l'energia necessaria al proprio fabbisogno, rivendendo il surplus sul mercato. Tradotta questa affermazione vorrebbe dire che entro 35 anni da oggi più di 264 milioni di persone (tra singole famiglie e piccole e medie imprese) saranno in grado di coprire il 45% del fabbisogno elettrico europeo grazie all'energia rinnovabile. L’Italia, secondo Greenpeace, ha grandi potenzialità, ma ha la necessità di provvedimenti più chiari capaci di sancire il diritto per le persone di produrre la propria energia rinnovabile fatta in casa, rivoluzionando in questo modo il sistema energetico europeo e togliendo il supporto alle grandi aziende che inquinano. La previsione, se ciò avverrà, con tariffe adeguate per i cittadini che immettono in rete l'elettricità prodotta in eccesso e che usano sistemi di accumulo e sono impegnati nella gestione della domanda, è che in Italia entro il 2050 almeno due italiani su cinque potranno contribuire alla produzione di energia. Tutto in linea, quindi, con il progetto più grande del presidente dell’UE Juncker di far diventare l’Europa il “numero uno delle energie rinnovabili”.

Per fortuna, mentre da una parte c’è ancora chi nega l’effetto serra e l’importanza di politiche mondiali per salvaguardare il paese, il tema dell’ecologia e del fabbisogno energetico del nostro pianeta rimane in primo piano: da Google, per esempio, che entro il 2017 coprirà tutta la sua richiesta energetica da energia rinnovabile e pulita, agli studi in California per recuperare energia dagli ingorghi stradali, o all’energia pulita in Scozia fornita dalle correnti sottomarine. Il mondo appare così un pò più “green” e non posso che felicitarmene.

]]>
Mon, 24 Apr 2017 19:01:11 +0000 http://www.gianlucacimini.it/mc/518/1/earth-day-2017-il-mondo-delle-rinnovabili-e-in-continua-crescita---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
5G e IoT: il matrimonio perfetto per la connessione del futuro - di Gianluca Cimini http://www.gianlucacimini.it/mc/517/1/5g-e-iot-il-matrimonio-perfetto-per-la-connessione-del-futuro---di-gianluca-cimini

Più di un miliardo di connessioni 5G entro il 2025, queste le previsioni di GSMA, l’associazione che riunisce le aziende operative nella telefonia mobile, rivelate durante lo scorso Mobile World Congress di Barcellona. Una tecnologia quella ultra veloce ed in velocità che rivoluzionerà la comunicazione offrendo potenzialità sempre maggiori alla telefonia mobile e, soprattutto, porterà l’internet delle cose e gli oggetti connessi ad un livello superiore. Quello tra 5G e IoT (Internet of Things ) potrebbe essere, infatti, il matrimonio perfetto, ci tengo a spiegarvi il perché di questa  mia affermazione.

Il nuovo standard, successore ed evoluzione del 4G, verrà definito a livello unificato e globale entro il 2018 e si espanderà su larga scala già per la fine del 2019 secondo le varie stime degli esperti del settore. L’obiettivo principale del 5G è riuscire a garantire una banda dati tale da garantire la connessione veloce all’aumento dei dispositivi elettronici attivi e passivi che avverrà esponenzialmente nei prossimi anni. Con il passaggio alle velocità approssimative di 100 o 200 megabit al secondo del 4G, con il 5G metteremo effettivamente il turbo alle nostre connessioni mobili. Ogni cella dati sarà in grado di supportare fino a 20 Gbps in download e fino a 10 Gbps in upload (tale banda sarà ripartita ovviamente per tutti i dispositivi connessi). Sempre per questo motivo, ogni cella sarà in grado di supportare fino a 1 milione di dispositivi per chilometro quadrato e questo aprirà ancora di più le porte all’IoT. Non soltanto maggiore velocità, ma anche reti più fitte, più vicine agli utenti, grazie a un proliferare di piccole celle. Si supererà in un colpo solo il gap esistente con l’odierna fibra ottica, già di per sé molto performante al momento: velocità oltre 25 volte maggiori ed, inoltre, senza la necessità di costose infrastrutture fisse. Utilizzando bande più elevate, oggi usate di rado, il 5G consentirà di inviare e ricevere un volume maggiore di dati in modo più rapido, usando quantità illimitate di frequenze nella medesima connessione. La mobilità, con il 5G, diventerà davvero parte della nostra vita, abbattendo le ultime distanze rimaste tra noi e tutto ciò che è connesso a internet. E questo anche grazie alle nuove latenze: quelle massime del 5G sono di 4 millisecondi, secondo l'ITU (agenzia Onu per le telecomunicazioni). A parte una velocità maggiore per l’invio e la ricezione dei dati, cosa effettivamente porterà la rivoluzione 5G me lo sto chiedendo da giorni, i campi di utilizzo sono molteplici. La differenza si vedrà a livello collettivo, più ancora che nell’esperienza dei singoli utenti, con il 5G sarà però possibile collegare tra loro, tutti insieme, un’enorme quantità di sensori e dispositivi, per permettere una trasmissione dati rapidissima. La bassa latenza del nuovo standard permetterà di connettere sensori con grande affidabilità alla città del futuro, una smart city che sfrutterà così le nuove performance nel campo dell’energia e delle varie utility cittadine quali luce, gas e acqua, controllando consumi e fabbisogni, riducendo gli sprechi ed evitando i blackout (immaginate dei lampioni “smart” che si attivano solo quando “captano” persone o veicoli). Gli stessi sensori consentiranno di gestire in maniera più efficiente il traffico ed il trasporto pubblico grazie ad aggiornamenti in tempo reale (lo scenario prevede anche automobili connesse tra loro in maniera automatica per prevenire rallentamenti o incidenti sul percorso e ridurre la congestione stradale). A livello di sicurezza inoltre, grazie alla molta banda disponibile sulla rete, le varie telecamere e sensori potranno più facilmente avvertire e rivelare un pericolo mettendo così in moto un sistema di allarme immediato. Per quando riguarda l’intrattenimento, inoltre, si aprirà il mondo mobile allo streaming in ultra alta definizione ed alla realtà virtuale che richiede molta banda per funzionare a dovere. I test per la nuova tecnologia di comunicazione nel frattempo non smettono di fermarsi e così in Corea del Sud, per esempio, grazie ai nuovi prototipi di antenne fissate sui montacarichi delle automobili è stato possibile effettuare una trasmissione di dati da punto a punto in movimento, veloce e stabile, anche su un’automobile lanciata alla velocità di 170 chilometri orari. Test riuscito e che apre, quindi, il sogno di collegare migliaia di oggetti contemporaneamente, abilitando la connessione tra i veicoli e tra il veicolo e le infrastrutture della città, permettendo alle auto di identificare eventuali pericoli, avere informazioni sul traffico e mappe costantemente aggiornate. Al Mobile World Congress, inoltre, un’auto reale connessa su una pista a 50 km dalla fiera è stata guidata tramite un simulatore attraverso lo scambio di dati sulla rete 5G, fondamentale, quando si parla di frenate immediate è stato il tempo ridottissimo di latenza che apre scenari ancora più fantascientifici (ma che stanno diventando sempre più reali) come anche quello di un altro esperimento nel campo della telemedicina , dove una telecamera ha ripreso un paziente e mandato immagini in tempo reale ad un medico dall’altra parte del mondo, che attraverso un visore di realtà virtuale ed un guanto elettronico poteva controllare un robot che materialmente eseguiva l’operazione. Ed intanto già da ora l’americana Verizon si è detta pronta ad offrire il suo servizio 5G ai consumatori di 11 città per sperimentare e testare la sua prima rete super veloce, un test che aprirà ancora di più le porte a questa tecnologia.

Come ogni nuova tecnologia il successo si baserà su come effettivamente verrà sfruttata e su quali servizi riuscirà ad offrire agli utenti di rete mobile (che entro il 2021 saranno circa 5,5 miliardi). Le stime di Accenture, secondo un recente rapporto internazionale sugli scenari di utilizzo delle future reti, ci dicono che il nuovo standard potrebbe, solo negli Stati Uniti, creare fino a 3 milioni di nuovi posti di lavoro e contribuire fino a 500 miliardi di dollari sul PIL americano tra investimenti diretti ed indotto. Un giro di affari mondiale, stavolta secondo Ericsson e Arthur D.Little, previsto di 46 miliardi di dollari entro il 2021 fino ai 582 miliardi nel 2026. Sono questi dati non certi, ma sicuramente incoraggianti, si apre insomma un mercato mondiale molto redditizio dove è fondamentale non rimanere indietro, lo dico anche per la questione italiana sull’assegnazione delle future frequenze radio che tarda ad arrivare e che potrebbe, quindi, posticipare l’arrivo del 5G nel nostro paese. Ancora una volta è la politica italiana che deve impegnarsi a cancellare questo gap rispetto agli altri paesi del mondo, mi auguro che sarà così. Insomma, connettività illimitata, automazione intelligente, maggiore copertura territoriale e accesso facilitato a internet: il 5G ha le carte in regola per cambiare la nostra esperienza, i dispositivi elettronici fissi appartengono ormai al passato. La mobilità veloce è il futuro che ci attende e che si prefigura già da ora pieno di potenzialità.

Gianluca Cimini

]]>
Wed, 19 Apr 2017 17:52:48 +0000 http://www.gianlucacimini.it/mc/517/1/5g-e-iot-il-matrimonio-perfetto-per-la-connessione-del-futuro---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Dieci anni di competizioni tra Hacker a caccia di bug: il "Pwn2Own" 2017 http://www.gianlucacimini.it/mc/516/1/dieci-anni-di-competizioni-tra-hacker-a-caccia-di-bug-il-pwn2own-2017

Arrivata alla sua decima edizione, e conclusa pochi giorni fa, la competizione tra hacker per eccellenza chiamata “Pwn2Own” ha decretato anche quest’anno quali sono i software più afflitti da eventuali bug di programmazione che li rendono quindi meno sicuri e più idonei ad eventuali attacchi. Il termine con cui si indica questo importante evento di hacker si riferisce ai verbi inglesi “to pwn” che significa hackerare e al termine “to own” che viene utilizzato invece nei videogiochi per umiliare l’avversario sconfitto. Scopo finale della competizione è, infatti, quello di riuscire a trovare delle falle in specifici software, in particolare modo i browser per navigare su internet, e i sistemi operativi degli smartphone di ultima generazione, in maniera tale da risolvere anche gli eventuali bug di programmazione per creare prodotti sempre migliori (anche se programmi perfetti ed inattaccabili difficilmente mai esisteranno proprio per la grande difficoltà che risiede intrinseca nella programmazione informatica con le sue tante variabili di cui un programmatore deve sempre tener conto). Ai vincitori della competizione vanno sia un premio in denaro (variabile, ma che nel 2012 ha raggiunto la ragguardevole cifra di un milione di euro offerta da Google a chi avesse “bucato” Google Chrome), sia il computer o l’apparecchio su cui sono riusciti ad eseguire l’exploit. Anno dopo anno il successo dell’evento è stato sempre maggiore e sono tanti i nomi importanti (come: Internet Explorer, Mozilla Firefox, Google Chrome, Safari, BlackBerry, iPhone, Android, Windows Phone) che sono caduti in battaglia durante questa decade.

Grattacapi sono stati registrati praticamente per quasi qualsiasi altro software famoso in circolazione: Microsoft Edge, il browser moderno preinstallato su Windows 10 e fermo ancora al 5% di quota di mercato, è risultato il browser meno sicuro poiché vittima del numero maggiore di exploit, hackerato almeno cinque volte in tre giorni specialmente a causa dell’engine JavaScript Chakra. A onor del vero bisogna anche dire che sì, effettivamente Microsoft Windows e Microsoft Edge sono stati i software maggiormente attaccati nei tre giorni della manifestazione, ma la maggior parte degli attacchi sono comunque riusciti. Inoltre la scelta potrebbe essere stata dettata proprio dalla consapevolezza da parte dei team di una debolezza strutturale che avrebbe favorito il successo. Nel campo dei browser a seguire abbiamo trovato Safari, il browser dei Mac, violato tre volte, e poi Mozilla Firefox che ha subito due attacchi tentati di cui solo uno è andato a buon fine. Solo Chrome di Google è riuscito indenne dalla competizione: su un solo tentativo di aggressione il team di hacker non è riuscito a completare l’exploit nei tempi indicati per la competizione.

Questa decima edizione ha fatto segnare, però, un record rispetto alle edizioni precedenti, per la prima volta, infatti, in un solo attacco hacker sono stati violati browser, sistema operativo e virtual machine. Le virtual machine (macchine virtuali) vengono solitamente utilizzate per isolare sistema operativo e dati dei singoli clienti in un servizio di hosting. VMWare Workstation è, invece, molto popolare tra gli utenti desktop che vogliono mantenere separato il sistema operativo host (quello in cui viene eseguita la virtual machine) dal sistema operativo guest (quello eseguito nella virtual machine). Ciò dovrebbe impedire ai contenuti infetti di passare dal secondo al primo, superando le difese della macchina virtuale. L’hack in questione ha comunque messo in chiaro che la massima sicurezza non è garantita nemmeno da una virtual machine. La tripletta è stata ottenuta da ben due team differenti presenti all’evento che così hanno potuto portarsi a casa un assegno sostanzioso e la vetta della classifica generale. Per ottenere questo straordinario risultato il team di hacker cinese “360 Security” ha prima trovato il bug all’interno di Microsoft “Edge”, per poi passare subito dopo all’immagine di Windows su cui girava ed, infine , alla virtual machine che gestiva il sistema operativo in esecuzione, e tutto nel tempo record di 90 secondi sfruttando sia un bug heap overflow sul browser, sia un buffer non inizializzato su VMWare Workstation, ed infine un bug nel kernel di Windows.. Vulnerabilità diverse per risultati simili che hanno portato un altro team, il Tencent Security Team Sniper ad ottenere lo stesso risultato pur non avendo utilizzato a bordo della virtual machine strumenti software di alcun genere in grado di mettere in comunicazione il sistema operativo ospite con l’hardware della macchina.

Altri exploit, meno eclatanti, ma comunque importanti, hanno portato a dimostrare la profonda preparazione e bravura degli hacker che hanno saputo per esempio piazzare una scritta arbitraria sulla Touchbar interattiva dell’ultima versione dei MacBook grazie ad una falla di Safari per accedere alla struttura di Mac Os, un chiaro esempio di come anche il sistema operativo di Cupertino non sia così sicuro come si è pubblicizzato invece per anni. Sorti simili per Adobe con i buchi verso sia Flash sia Reader, e per la prima volta in questa edizione verso Ubuntu Linux 16.10. Fortunatamente, dopotutto è proprio questo lo scopo della competizione, tutte le vulnerabilità sfruttate durante la competizione di hacking vengono segnalate ai rispettivi sviluppatori, in questo modo le società hanno modo e tempo di risolverle e di rilasciare aggiornamenti di sicurezza: solo dopo questo passaggio vengono rese di pubblico dominio.

Molte cose sono cambiate in dieci anni di evoluzione tecnologica: quando è nato questo particolare evento ancora non si parlava della crescita dei “ransomware”, di attacchi hacker tra blocchi continentali contrapposti, dell’evoluzione del “cloud”, dell’esplosione dei “bitcoin”, né nessuno aveva mai sentito parlare dell’ “Internet of Things”; semplicemente perché molte di queste creazioni tecnologiche esistevano solo in chiave teorica prima di crescere ed affermarsi nel mondo reale come possiamo vederlo con i nostri occhi in questo momento. E più cresce l’importanza della tecnologia nella nostra vita, più ovviamente crescono proporzionalmente i rischi legati a tale tecnologia che permea la nostra vita e che lo farà sempre di più negli anni a venire.

Gianluca Cimini

]]>
Sat, 15 Apr 2017 12:40:38 +0000 http://www.gianlucacimini.it/mc/516/1/dieci-anni-di-competizioni-tra-hacker-a-caccia-di-bug-il-pwn2own-2017 gianlucacimini2016@gmail.com (Gianluca Cimini)
Il fuoco non ferma la cultura: a Napoli riapre la Città della Scienza - di Gianluca Cimini http://www.gianlucacimini.it/mc/515/1/il-fuoco-non-ferma-la-cultura-a-napoli-riapre-la-citta-della-scienza---di-gianluca-cimini

Era il 4 marzo del 2013 quando una della strutture didattiche per la cultura scientifica più grandi e prestigiose d’Italia, a seguito di un incendio doloso, smetteva di esistere. A distanza di 4 anni rinasce presso lo stesso terreno che l’aveva ospitata la prima volta, ossia a Bagnoli in provincia di Napoli, la Città della Scienza che ospiterà anche “Corporea” il più grande museo interattivo d’Europa sui segreti del corpo umano ed un Planetario che fungerà anche da cinema 3D. Per combattere l’ignoranza e la violenza non c’è modo migliore, a mio avviso, di mostrare l’Italia che vale e che segue i suoi obiettivi e risultati: il progetto per la ricostruzione della Città è stato firmato in tempi record, per come siamo stati abituati almeno, come in tempi record la Città ha visto la sua rinascita. Solo lavorando a testa bassa e senza intoppi, con la volontà di farlo, si può raggiungere un obiettivo importante come questo, ossia quello di tornare ad essere un punto di riferimento nel panorama delle istituzioni culturali del Paese e del territorio. Grazie al crowfunding che ha permesso di raccogliere 1,4 milioni di euro dalla solidarietà di tante persone ed associazioni e grazie all’imponente finanziamento statale, per un importo complessivo di 23,9 milioni di cui 18,6 con fondi della Regione e 5,3 a carico di Città della Scienza, è tornato dalle ceneri, in questo caso il termine mi pare alquanto appropriato, un grande complesso scientifico che vuole essere, anche e soprattutto, un grande polo di attrazione turistica. Il presidente del Senato Pietro Grasso si è così espresso, con convinzione, riguardo alla riapertura della Città: "accanto a una crescita storica, culturale e artistica, l'innovazione tecnologica dia sviluppo, dia lavoro e serva anche a migliorare la vita dei cittadini".

Il nuovo polo scientifico museale, che si appresta a diventare il più grande d’Italia, include molti laboratori di robotica 4.0 ed un incubatore di impresa che, nei primi 2-3 anni di funzionamento, ha già dato il via a 150 nuove aziende tecnologiche, con l’obiettivo di mettere in moto in Campania un processo capace di puntare all’innovazione ed alle start-up capace di rendere l’area un polo strategico per lo sviluppo. Il vero punto forte della riapertura del nuovo museo sarà inizialmente quello della mostra “Corporea” nella quale i visitatori vivranno un viaggio nella macchina perfetta del nostro organismo per imparare e conoscere attraverso la sperimentazione ed il divertimento: sugli oltre 5000  metri quadrati della Città, divisi su tre livelli, si trovano, infatti, 14 isole tematiche legate ai diversi apparati del corpo umano in cui attraverso esposizioni, esperienze di realtà virtuale, video immersivi, macroinstallazioni e postazioni interattive i grandi, ma specialmente i più piccoli , potranno coniugare conoscenza, educazione e divertimento. La particolarità unica di Corporea è quella di integrare il linguaggio espositivo tradizionale con prestiti da musei e collezioni antiche, con esperimenti “hands-on” introducendo il mondo dei Fab Lab e dei “Makers” come esperimento da vivere in diretta: si entra così, per esempio, nelle cavità più recondite del corpo, camminando nelle vene e nelle arterie, e si sbuca nelle vie biliari. Giochi, laboratori e sperimentazioni per un approccio diverso e sicuramente interessante alla scienza, che sicuramente saranno utili per far crescere l’interesse di tante persone verso qualcosa di unico e magico com’è il nostro corpo umano. “Il museo del corpo umano – afferma, infatti, Vittorio Silvestrini, fondatore e presidente di Città della Scienza – ha l’obiettivo di aiutare a governare e trattare nel modo giusto il grande tesoro che ci viene dato con la vita. ‘Corporea’ è il primo museo interattivo in Europa interamente dedicato al tema della salute, delle scienze e tecnologie biomedicali e della prevenzione, basato sulla sperimentazione diretta dei fenomeni da parte dei visitatori”.

Il più grande ed avanzato planetario 3D d’Italia, come viene pubblicizzato il “Dome/3D”, offrirà, invece, 120 posti a sedere all’interno di una stanza da 20 metri di diametro. Di ultima generazione, e tra le più avanzate al mondo, sarà la macchina che aprirà lo sguardo attraverso il cosmo infinito grazie alla speciale collocazione della cupola che garantisce un effetto di completo coinvolgimento dello spettatore anche grazie ad un’acustica che garantirà al pubblico uno spettacolo dell’universo unico ed avvolgente. Non mancheranno, inoltre, spettacoli e filmati che ci aiuteranno a scoprire i vari, ed aggiungo affascinanti, segreti dell’universo: dalle vecchie missioni spaziali, al ruolo della materia oscura nell’Universo, passando dalle teorie degli antichi astronomi Greci sulle stelle a come proteggere i cieli stellati dall’inquinamento luminoso. Dal viaggio all’interno del Corpo Umano, fino a quello interstellare, dai segreti infinitamente piccoli del corpo umano, a quelli vasti e in gran parte ancora non sondati dell'universo che scorgiamo alzando gli occhi: la conoscenza non è mai abbastanza e non si ferma mai. Prima dell’incendio la Città della Scienza aveva circa 350 mila visitatori annuali, l’obiettivo a detta degli organizzatori, una volta completati totalmente i lavori (previsti per il 2020), sarebbe quello di incrementare ad oltre 500 mila il numero di questi appassionati di scienza e se le cose andranno come previsto, come mi auguro fortemente, non mi sorprenderebbe che certi risultati siano non solo raggiunti ma superati. L’obiettivo della Città con le sue caratteristiche peculiari, sia di museo sia di incubatore di start-up, è di guardare al futuro affinché non si crei solo un luogo per la memoria del passato, ma si invitino le persone a pensare e creare per un futuro migliore.

Gianluca Cimini

]]>
Wed, 12 Apr 2017 23:44:37 +0000 http://www.gianlucacimini.it/mc/515/1/il-fuoco-non-ferma-la-cultura-a-napoli-riapre-la-citta-della-scienza---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Consumo critico e ricerca del pezzo unico: il boom della circular economy - di Gianluca Cimini http://www.gianlucacimini.it/mc/514/1/consumo-critico-e-ricerca-del-pezzo-unico-il-boom-della-circular-economy---di-gianluca-cimini

Grazie al fiorire dei portali online dedicati alla compravendita dell’usato, il mercato dei prodotti di seconda mano si continua ad affermare come uno dei più vivi ed importanti del paese, capace di muovere più di 19 miliardi di euro e di contribuire al PIL Nazionale con una percentuale vicina all’1,1%, in crescita di un miliardo di euro rispetto al 2015. I dati che ho appena esposto derivano da una ricerca Doxa commissionata dal famoso portale subito.it (l’azienda del settore più 'cliccata' in assoluto, con oltre 8 milioni di utenti unici mensili) che ci chiarisce il successo crescente di questa economia dell’usato, legata non solo, in parte, alla crisi economica del momento, ma anche ad una nuova concezione dei beni di consumo collegata ad un consumo più critico ed alla ricerca di pezzi unici e non commerciali. Le grandi piattaforme tecnologiche come ebay e subito, tanto per citare le maggiori, ma ne esistono di tutti i tipi e categorie, hanno aiutato a far crescere il mercato dell’usato come mai era stato possibile prima d’ora: è sul web, infatti, che gli italiani hanno dimostrato di avere un approccio più dinamico agli scambi delle merci di 'seconda mano' rispetto agli ambiti tradizionali come le concessionarie o i mercatini. Comprare e vendere prodotti usati è diventato così quasi uno stile di vita, per un consumo più responsabile che dà valore ai singoli oggetti e per la ricerca, come dicevo, di prodotti particolari e non in commercio attraverso i normali grandi magazzini.

Secondo il cosiddetto modello qui adottato della “circular economy” il consumatore riveste un ruolo più centrale e più consapevole nella vita di un bene, sentendosi responsabile dal momento del suo acquisto fino a quello del suo smaltimento, allungandone così alla fine anche il ciclo di vita grazie al riuso. L’economia circolare tende, infatti, ad interrompere il classico ciclo “acquisto-consumo-smaltimento” ponendo, invece, l’attenzione sul valore del prodotto e sul suo uso protratto nel tempo attraverso una maggiore cura ed una seconda vendita come prodotto usato ad un prezzo vantaggioso per il secondo acquirente. Grazie al boom degli smartphone questi acquisti oggi si fanno sempre di più in mobilità grazie alla possibilità di cercare prodotti che ci interessano a partire non solo dal prezzo e dallo stato del prodotto, ma anche dalla geo-localizzazione del bene messo in vendita, e così gli utenti, di tutte le età, ma specialmente i giovani, vivono con naturalezza l’acquisto e la vendita di prodotti usati online cercando così di togliersi qualche sfizio o di seguire magari l’oggetto tecnologico del momento mettendo in vendita il modello precedente già posseduto.

La componente digitale della “second hand economy" è, come facilmente immaginabile, molto rilevante. E così dalla ricerca emerge che il 47% della popolazione italiana maggiorenne ha acquistato o venduto oggetti usati, la maggior parte di questi proprio grazie al fiorire delle piattaforme di compravendita online che valgono circa 7,1 miliardi di euro (ossia 300 milioni in più rispetto al 2015). I prodotti più ricercati e venduti fanno parte del settore dei motori, seguito dai prodotti per la casa e per la persona, dall’elettronica ed, infine, dal settore degli sport e degli hobby. Ogni italiano che sfrutta la cosiddetta economia di seconda mano di media, a fine anno, risparmia circa 900 euro che spesso vanno poi resinvestiti in altre spese, secondo il trend del momento, non per prodotti ma per esperienze, la spesa “esperienziale” è, infatti, in forte crescita.

“La terza edizione dell’Osservatorio Second Hand Economy per Subito evidenzia come la popolazione italiana sia costantemente interessata a comprare e vendere usato in particolare online”, commenta Guido Argieri, Customer Interaction & Monitoring, Head of Department di DOXA. “La progressiva digitalizzazione del Paese e un uso sempre maggiore di smartphone e tablet stanno progressivamente riducendo l’acquisto e la vendita di beni in mercati e negozi dell’usato a favore delle piattaforme digitali generaliste e verticali”.

Quella della “Second Hand Economy” non è, quindi, una moda passeggera, ma vuole imporsi come una radicale trasformazione del nostro modo di intendere produzione, consumo e quindi benessere, non solo per risparmiare, ma anche per vivere il prodotto con una concezione diversa, con un approccio etico e ambientalista. Come più volte è stato denunciato dal WWF: l’uso efficiente delle materie prime è una delle sfide cruciali del nostro tempo, dal momento che ogni anno utilizziamo risorse pari a quelle di 1,6 pianeta Terra. Troppe, a mio avviso, considerando specialmente che la domanda delle nostre economie non cessa di aumentare. Proprio per questo pensare ad un’alternativa all’economia che abbiamo vissuto fino ad oggi è doveroso e auspicabile. La difesa della natura e la riduzione dell’impatto ambientale della produzione industriale possono avere un significato positivo anche per la crescita e lo sviluppo. In natura non esistono discariche, ma i materiali vanno e vengono trasformandosi secondo il normale ciclo della vita, in un sistema circolare che si presenta e ripresenta da centinaia di anni sempre allo stesso modo. L’approccio lineare utilizzato dagli esseri umani, invece, si basa sull’utilizzo e la trasformazione delle materie prime fino all’eventuale disuso che porta, quindi, ad intaccare ogni eventuale risorsa naturale che non è infinita. Un sistema che nel lungo periodo non può durare in eterno. Trasformare i prodotti di oggi nelle risorse del futuro è l’auspicio dell’economia del futuro.

L’economia circolare fa proprio questo, ossia si pone come un modello produttivo che ambisce a una riduzione significativa dei prodotti di scarto, da riutilizzare piuttosto nel ciclo economico. È un affare non solo per il Paese, ma anche per i cittadini e l’ambiente. Che si pensi, quindi, se già non lo si sta facendo, ad un approccio diverso alle nostre spese future cercando di superare la vecchia, e non più sostenibile, logica del “prendi, produci, usa e getta”. Siamo ancora in grado di farlo, prima che sia troppo tardi.

Gianluca Cimini

]]>
Tue, 11 Apr 2017 11:09:36 +0000 http://www.gianlucacimini.it/mc/514/1/consumo-critico-e-ricerca-del-pezzo-unico-il-boom-della-circular-economy---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Inizia l’era del riciclo spaziale, il lancio di Space X è stato un successo http://www.gianlucacimini.it/mc/513/1/inizia-l-era-del-riciclo-spaziale-il-lancio-di-space-x-e-stato-un-successo

Florida, 30 marzo 2017, 23:27 ora italiana, Kennedy Space Center. Quel genio istrionico e visionario di Elon Musk non smette di far parlare di sé dando inizio in un colpo solo all’era del “riciclo spaziale”. La Space X, l’azienda spaziale privata di Musk, per la prima volta al mondo, ha, infatti, fatto decollare con successo, come se fosse un normale aeromobile, un razzo spaziale “di seconda mano”: il Falcon 9 portandolo nuovamente nello spazio. Perché nuovamente? perché quel razzo era già stato utilizzato per un volo spaziale e il risultato storico raggiunto con successo apre uno scenario nuovo per l’esplorazione spaziale nel quale, negli anni a venire, si potranno abbattere i costi dei futuri progetti grazie all’utilizzo di razzi che avevano già compiuto la loro missione spaziale iniziale. Dopo 11 mesi dalla sua ultima missione, quindi, il Falcon 9 ritorna in orbita, operativo al momento in cui vi scrivo, un satellite per Tlc della società lussemburghese Ses sta orbitando sopra l’equatore trasmettendo segnali televisivi verso l’America meridionale grazie al modulo “riciclato” di Space X. Con queste parole Elon Musk apre effettivamente l’era del riciclo spaziale: “Penso sia un giorno importante nella storia delle missioni spaziali. È possibile far volare più volte un lanciatore orbitale, che è la parte più costosa del razzo. Un risultato che costituisce, auspicabilmente, una grande rivoluzione per il volo spaziale”.

Per la precisione non tutto il Falcon 9 originale sta volando sopra di noi, ma una grande parte di esso: i motori sono rimasti gli stessi, ma ogni componente ausiliario per il quale sussisteva anche il minimo dubbio in fatto di sicurezza, assicura Musk, è stato sostituito. Il primo stadio del razzo era già stato utilizzato in una precedente missione lo scorso aprile e poi recuperato grazie al sistema di atterraggio controllato. Il primo stadio, alto 41 metri, si è sganciato dal resto del lanciatore 2 minuti e 41 secondi dopo il decollo, prima di iniziare una discesa controllata con i retro-razzi per adagiarsi dolcemente su una piattaforma galleggiante sull'Oceano Atlantico, 8 minuti e 32 secondi dopo il lancio. La possibilità di riutilizzare i propri razzi è sempre stata una priorità per SpaceX, per ridurre sensibilmente i costi di ogni missione, offrire prezzi più bassi alle aziende che vogliono portare in orbita i loro satelliti e rendere più frequenti i lanci. L’obiettivo, ora, per l’azienda privata è quello di aumentare il più possibile la velocità di riciclo e minimizzare il numero di pezzi da sostituire completamente così da riuscire ad abbattere ancora di più i costi per i futuri progetti spaziali, in programma solo per quest’anno, infatti, ci sono altri sei razzi da lanciare. E l’obiettivo è quello di arrivare un giorno a creare razzi in grado di essere utilizzati e riutilizzati il più velocemente possibile e con una manutenzione minima in grado di eliminare la sostituzione di alcun pezzo e di rendere i razzi così veloci ed efficienti da essere utilizzati e lanciati in poco meno di 24 ore. Praticamente come un aereo qualsiasi.

La maggior parte dei lanciatori spaziali (come quello di SpaceX) è formata da alcuni cilindri uniti tra loro, i diversi “stadi”: ognuno è dotato di motori e carburante per spingere il razzo e fargli vincere la forza di gravità terrestre; quando il primo stadio termina il suo compito, si stacca e si attiva il secondo stadio e così via. Nel caso del Falcon 9 due sono gli stadi utilizzati: il primo, formato da 9 motori Merlin ed in grado di produrre una spinta pari a quella di cinque Boeing 747 sommati insieme, era stato usato nel lancio dell'aprile 2016 della capsula Dragon verso la Stazione Spaziale Internazionale, in una missione di rifornimento, ed era stato recuperato dopo l'atterraggio sulla terra; nel secondo stadio troviamo, invece, un solo motore che si attiva quando ormai il razzo ha superato l’atmosfera terrestre e serve a dargli la spinta giusta per posizionarlo nell’orbita stabilita. Fino ad oggi, però, questi “stadi” una volta che finivano la loro funzione tendevano a tornare verso la Terra disintegrandosi a causa dell’atmosfera e mandando in cenere così anche motori e tecnologia che valgono alcune centinaia di milioni di dollari per ogni lancio effettuato. Di solito per il trasporto in orbita di un satellite SpaceX chiede come cifra di partenza 60 milioni di dollari, una volta che entrerà a pieno regime il sistema di riutilizzo dei razzi, il prezzo calerà, secondo le previsioni dell’azienda, di circa il 30 per cento. Complessivamente, SpaceX ha finora effettuato 14 tentativi di recupero dei propri lanciatori dopo aver rilasciato il carico utile, di essi nove andati a buon fine, compreso quello appena effettuato, non sono tutti, ma la media è alta, considerato che parliamo di un progetto sperimentale.

Space X è entrata così nella storia per essere stata la prima azienda al mondo, quando tutti dicevano che sarebbe stato impossibile, ad avere portato a termine con successo la consegna di un satellite in orbita geostazionaria con un razzo riutilizzato (il primo stadio), atterrando in verticale per la seconda volta sulla piattaforma galleggiante. L’impresa di Space X non vuole essere la conclusione di un progetto lungo e pieno di difficoltà durato 15 anni ma, piuttosto, l’inizio di una nuova era. La sfida per il futuro è quella, infatti, grazie al notevole abbattimento dei costi, di far diventare ordinari i lanci spaziali, gli atterraggi e le ripartenze dei razzi, a costi inferiori e con tempi molto ristretti rispetto a quelli che sono stati fino ad oggi gli standard della materia. Considerando che i prossimi progetti di Musk si basano su una missione privata intorno alla Luna per due suoi clienti ed un piano a lungo termine molto ambizioso e controverso per colonizzare Marte, non passerà molto prima che il visionario miliardario torni alla ribalta dei media a suon di nuovi traguardi raggiunti.

Gianluca Cimini

]]>
Sun, 9 Apr 2017 17:00:38 +0000 http://www.gianlucacimini.it/mc/513/1/inizia-l-era-del-riciclo-spaziale-il-lancio-di-space-x-e-stato-un-successo gianlucacimini2016@gmail.com (Gianluca Cimini)
Fact Checking - verificare le fonti costantemente contro la disinformazione - di Gianluca CImini http://www.gianlucacimini.it/mc/512/1/fact-checking---verificare-le-fonti-costantemente-contro-la-disinformazione---di-gianluca-cimini

Non soffermarsi mai alla superficie, ma andare sempre in fondo alle notizie controllando l’autorevolezza delle fonti per combattere la disinformazione dilagante. Le “Fake News” ossia le notizie false, sia create ad hoc a scopo di ironizzare su fatti e personaggi famosi, sia create proprio con l’obiettivo di manipolare l’informazione, sono, purtroppo, non solo un elemento distorsivo per una corretta conoscenza della realtà, ma possono anche manipolare il mercato e minacciare la stabilità sociale. Non è un caso, quindi, che proprio dopo il primo aprile, famoso per i cosiddetti “pesci” e false informazioni che si diffondono da sempre per questa giornata, sia stata scelta la data del giorno successivo, ossia il due aprile, per celebrare a livello mondiale “l’International Fact-Checking Day”, ossia la giornata internazionale contro le bufale online. L’iniziativa nacque a Buenos Aires lo scorso anno, promossa dal progetto “PolitiFact”, nato in Florida per verificare le dichiarazioni di presidenti, politici e lobbisti americani durante le passate elezioni. Obiettivo della giornata: riaffermare la necessità di fatti solidi e di argomentazioni fondate in politica, nel giornalismo e nella vita di ogni giorno.

In tempi di “fake news” e di bufale, a mio avviso, è fondamentale riuscire ad imparare a farsi uno sguardo critico su tutto quello che troviamo in rete dove ognuno è libero di esprimere il suo parere, ma allo stesso tempo anche di inventare fatti falsi; la verifica delle notizie, così come ricordavano alcuni miei amici giornalisti, deve essere sempre una delle basi fondamentali per dare attendibilità ad una notizia. E combattere la disinformazione in tutte le sue forme è qualcosa che non possiamo più rimandare. Conosco personalmente persone, anche considerate amiche, che hanno il brutto vizio, a volte, di dar risalto sui social a notizie che girano su internet con troppa facilità, dando per scontato che tutto quello che vi si trova abbia un briciolo di verità. Bene, vi assicuro che non è così. E molti approfittano di questi casi proprio per rendere virali certe notizie, anche se spesso non sempre sono veritiere, ma possono “fare comodo” per manipolare l’opinione pubblica secondo determinate direttive. Purtroppo certe notizie false si possono diffondere viralmente e velocemente, come dei virus, riuscendo a manipolare alla fine completamente la verità dei fatti.

Il fenomeno, da sempre esistito, ha avuto un boom proprio durante la scorsa campagna elettorale USA, proprio in quel periodo due delle piattaforme online di maggior diffusione, ossia Google e Facebook, sono finite nel mirino perché, a detta di alcuni osservatori, hanno agevolato la diffusione su internet di certe notizie che potrebbero aver influenzato il voto degli Americani. Ma anche blog e siti istituzionali non ne sono completamente esenti. Proprio per questo di recente sono nati diversi progetti ed iniziative volti ad arginare questo fenomeno ed a filtrare le notizie consentendo agli utenti di poter segnalare, una volta identificate, quelle inventate. Il fenomeno è tanto preoccupante quanto diffuso, secondo un sondaggio del Pew Research Center, nel quale emerge che almeno un americano su quattro, in modo consapevole oppure no, ha condiviso online notizie false, mentre quasi due terzi dichiarano che le cosiddette “bufale” creano parecchia confusione sui fatti di attualità. E non sempre è facile riconoscere le notizie false per un occhio non preparato a farlo.

C’è un solo modo per risolvere il problema: possedere il giusto occhio critico e un bagaglio di competenze necessarie per “smascherare” una news falsa a prescindere dallo scopo per cui è stata realizzata, senza dimenticare mai che il fenomeno esiste ed è largamente diffuso. Riuscire ad arginare il fenomeno dando agli utenti i modi e le conoscenze per diventare fruitori consapevoli di quello che il mondo dell’informazione può generare, riuscendo alla fine a far diventare tutti critici e capaci di distinguere la verità dalle notizie false create ad arte, è quello che si augurano tutti, da me, agli organizzatori dell’evento in tutto il mondo. La quantità enorme di fake news, infatti, fa sì che, nel mare magnum di Internet, ormai sia impossibile distinguere le bufale dalla verità: dalle petizioni online, alle catene di Sant’Antonio, passando per gli annunci trappola e le news costruite ad hoc per promuovere certi prodotti o per screditare qualcuno. Un piccolo, ma facile, consiglio che voglio dare personalmente è quello di controllare sempre da dove nasce la notizia. Mi riferisco all’indirizzo internet del sito, all’URL specifico che diffonde la news. Questo perché, mentre molti siti che creano “fake news” lo fanno in maniera chiara e con lo scopo di ironizzare o scherzare su determinati eventi, ci sono siti più “subdoli” che, invece, utilizzano URL molto simili a quelli di importanti testate giornalistiche o siti di informazioni nazionali od internazionali a cui, però, aggiungono anche solo una lettera che un occhio inesperto o distratto, di fronte alla gigantesca mole di siti in cui naviga ogni giorno o che si trova condivisa sui propri social da amici o parenti, possono sfuggire ed essere visti, quindi , come notizie autorevoli poiché scritte da fonti attendibili quando, invece, sono proprio il contrario. Bisognerebbe, poi, imparare a risalire sempre alla fonte primaria da cui nasce la notizia, verificandone se possibile anche la data di pubblicazione e la località. Un altro modo che vi consiglio per imparare a valutare ogni notizia è quello di seguire una breve ed interessante lezione sulle “fake news” direttamente sul sito della Polynter Institute, ossia la prestigiosa scuola di giornalismo situata in Florida che è promotrice dell’evento. Il consiglio finale, non meno importante, è quello di prendersi qualche secondo prima di cliccare sul tasto “condividi”  una notizia, rileggerla, valutarla attentamente, perché il diffondersi di una bufala parte, in primis , anche da noi che possiamo diventare inconsapevolmente parte di una catena che poi è difficile interrompere e che troverà, anzi, amici, colleghi e conoscenti che, fidandosi di noi, prenderanno anche loro quella notizia come veritiera facendo il nostro stesso errore. Concludo riprendendo lo slogan dell’evento: “Non farti ingannare, i fatti contano”.

Gianluca Cimini

]]>
Thu, 6 Apr 2017 18:59:27 +0000 http://www.gianlucacimini.it/mc/512/1/fact-checking---verificare-le-fonti-costantemente-contro-la-disinformazione---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Report 2016 sulla minaccia cybernetica in Italia e cosa ci aspetta per il futuro - di Gianluca Cimini http://www.gianlucacimini.it/mc/511/1/report-2016-sulla-minaccia-cybernetica-in-italia-e-cosa-ci-aspetta-per-il-futuro---di-gianluca-cimini

Si è concluso da poco questo 2016, un anno che gli esperti di cybersecurity hanno indicato come “l’annus horribilis” per l’Italia per quanto ha riguardato gli attacchi informatici, e considerando quello che è successo nei passati 12 mesi, l’anno già iniziato non preannuncia niente di nuovo, proprio per questo, forse, è il momento di analizzare il problema con dati precisi per preparare e migliorare le strategie future. Pubblici o privati, nessuno è uscito incolume da questo anno di attacchi cybernetici che hanno colpito target differenti con modalità e finalità variabili da caso a caso.

Secondo l’annuale Relazione sulla politica dell'informazione per la sicurezza, realizzata a cura del DIS (Dipartimento delle informazioni per la sicurezza) e presentata il 27 febbraio dal presidente del Consiglio Gentiloni e dal direttore generale del Dis Alessandro Pansa, è risultato, infatti, un preoccupante e costante trend di crescita in “termini di sofisticazione, pervasività e persistenza a fronte di un livello non sempre adeguato di consapevolezza in merito ai rischi e di potenziamento dei presidi di sicurezza” per quanto riguarda tutti i fenomeni di minaccia collegati al cyberspace. Questo significa che, da una parte, gli hacker stanno diventando ancora più pericolosi e, dall’altra, che questo problema non è ancora stato ben compreso da molte piattaforme che tardano ad adottare sistemi di sicurezza più efficienti per risolvere le tante falle di sistema e vulnerabilità varia che molti siti web, sia istituzionali sia privati, presentano e necessitano di revisione ed attenzione anche perché tali servizi possono occuparsi anche di servizi essenziali e strategici che potrebbero mettere a rischio anche la sicurezza nazionale in caso di un attacco hacker più “sofisticato e pervasivo”. In quest’anno sono cambiati, inoltre, sia il tipo di attacchi perpetrati maggiormente, sia i target che hanno subito tali attacchi. Se il 2015 è stato l’anno dei malware, il successivo 2016 ha visto, invece, una contrazione importante del fenomeno e la nascita di nuove tipologie di attività ostili, un dato che fa riflettere, comunque, non sull’effettiva riduzione della pericolosità della minaccia, ma sulla consistenza numerica e sull' estrema persistenza. Rimane stabile, pur registrando un aumento, il divario tra le minacce contro i soggetti pubblici, che costituiscono la maggioranza degli attacchi (ossia il 71%) e quelli diretti verso soggetti privati (che costituiscono il 27%), per quanto comunque, a mio avviso, sia non sempre facile per i soggetti privati notificare gli attacchi subiti, dal momento che molti di questi non vengono neanche avvertiti come tali. In relazione ai target privati sono però cambiati i target preferiti dagli hacker: scendono in questa particolare classifica, gli attacchi verso i settori operanti nella difesa, nelle telecomunicazioni, nell’aerospazio e nell’energia, per aumentare invece rispetto al 2015 e salire al primo posto, il settore bancario seguito dalle agenzie di stampa, le testate giornalistiche, le associazioni industriali e la new entry del settore farmaceutico. In parallelo allo spionaggio tradizionale, lo spionaggio informatico è diventato un capitolo molto importante, e chissà quanto remunerativo, negli attacchi degli hacker sia verso Istituzioni pubbliche sia verso imprese private, da una parte per ottenere informazioni utili a comprendere strategie e posizionamento del Paese sugli eventi geo-politici di interesse principale, e dall’altra con finalità di acquisizione di know-how ed informazioni industriali e commerciali. Minare la reputazione esistente del concorrente commerciale ed allo stesso tempo riuscire ad immagazzinare più informazioni possibili sui suoi obiettivi, è stato quello che hanno fatto gli hacker in questi mesi rivolgendosi non solo alle grandi aziende, ma anche ai singoli individui ritenuti di particolare interesse in ragione dell’attività professionale svolta e delle informazioni cui hanno accesso. Utilizzando tecniche di ingegneria sociale, ed espedienti sempre nuovi, gli hacker hanno così cercato di catturare informazioni sensibili come credenziali di accesso ai sistemi informatici aziendali. Sono i gruppi hacktivisti (con il 52% delle minacce cyber) la minaccia più rilevante , in termini percentuali, per il nostro paese, benché “la valenza del suo impatto sia inversamente proporzionale rispetto al livello quantitativo riferito ai gruppi di cyber-espionage, più pericolosi anche se percentualmente meno rappresentativi (19%).” La minaccia terroristica nel mondo informatico si occupa di attività quali proselitismo, reclutamento e finanziamento mentre le attività ostili in danno di infrastrutture IT sono consistite principalmente in attività di Web-defacement ossia quella pratica che consiste nel cambiare illecitamente la home page di un sito web (dal termine deturpare) all’insaputa di chi gestisce il sito. Ai gruppi islamisti è imputato il 6% degli attacchi cyber perpetrati in Italia nel corso del 2016.

La necessità di adeguare l’architettura informatica nazionale dei siti più sensibili, sia a livello pubblico sia privato, è l’obiettivo che mi auguro sia seguito, senza ulteriori perdite di tempo, durante questo anno, così da essere pronti ad affrontare le crescenti sfide che la sicurezza informatica richiede a livello nazionale ed internazionale. Stabilire e coordinare le linee d’azione per portare ad assicurare i necessari livelli di sicurezza dei sistemi e delle reti di interesse strategico, è compito sia del governo sia del Dipartimento delle informazioni per la sicurezza (DIS), il premier Gentiloni è stato chiaro a riguardo: "Sappiamo di essere in un mondo in cui si moltiplicano le cosiddette minacce asimmetriche, non c'è più tanto la minaccia tradizionale di eserciti stranieri alle porte, ma ci sono minacce di vario tipo che vengono dagli attacchi cyber e da molte altre questioni. A queste minacce non si risponde nell'illusione di potersi proteggere chiudendoci, ma si risponde accettando la sfida. Più sicurezza non vuol dire meno libertà, al contrario. Oggi avere più sicurezza è una condizione per continuare a vivere liberi, per continuare ad avere una società aperta, ispirata ai valori che abbiamo conquistato e che intendiamo difendere".

Gianluca Cimini

]]>
Mon, 3 Apr 2017 18:40:24 +0000 http://www.gianlucacimini.it/mc/511/1/report-2016-sulla-minaccia-cybernetica-in-italia-e-cosa-ci-aspetta-per-il-futuro---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Tra etica e rischi vari, è forse tempo di riscrivere le leggi delle robotica - di Gianluca Cimini http://www.gianlucacimini.it/mc/510/1/tra-etica-e-rischi-vari-e-forse-tempo-di-riscrivere-le-leggi-delle-robotica---di-gianluca-cimini

Astrofisici, inventori, imprenditori, filosofi e scienziati, si stanno interrogando e ponendo la stessa domanda da diverso tempo cercando di darsi al più presto una risposta e di porre magari le basi per una possibile regolamentazione futura sull’argomento, ossia: cosa accadrà quando l’etica umana verrà scombussolata da sistemi di intelligenza artificiale dotati di una serie di regole in contrasto con le nostre?

Tra apocalittici e integrati, le famose leggi della robotica create da Isaac Asimov a cui rispondono tutti i robot positronici (ossia dotati di un dispositivo immaginario ideato dallo stesso scrittore russo e chiamato cervello positronico, il quale può essere benissimo inteso come intelligenza artificiale) proprio ultimamente sembrano essere state violate per la prima volta nel mondo reale, ma, a dirla tutta, i robot in questione non hanno agito di propria iniziativa, ma seguendo algoritmi ed istruzioni precise e ben programmate. E così la prima legge che afferma che “Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno” e la seconda, ossia che “Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge” sono state superate. Il primo caso ha portato il robot russo “Promobot” a “fuggire spontaneamente” dal laboratorio in cui stava apprendendo gli algoritmi per il movimento automatico, ed a esplorare l’ambiente circostante in modo autonomo finché non è rimasto immobile, a batterie ormai scariche, in mezzo ad una strada paralizzando il traffico cittadino. Se sia stata una furba mossa di marketing o una dimenticanza accidentale, questo non saprei dirlo. Il caso successivo, però, fa ancora più pensare, e si tratta del primo robot pensato espressamente per danneggiare o ferire qualcuno dal momento che il braccio mobile armato di ago è stato realizzato per pungere con forza chi, tentando la sorte, avesse appoggiato il dito sull’apposito bersaglio. Il robot nasce come esperimento all’interno dell’Università di Berkeley proprio per far ragionare la gente su come affrontare i pericoli che potrebbero rappresentare i robot, ancor prima che si realizzino. “La grande preoccupazione sulle intelligenze artificiali è che possano andare fuori controllo. - afferma Alexander Reben, l’ingegnere dell'università di Berkeley esperto di interazione uomo-robot - I giganti della tecnologia affermano che siamo ben lontani da questo, ma pensiamoci prima che sia troppo tardi. Io sto provando che robot pericolosi possono esistere, dobbiamo assolutamente confrontarci sul tema. Le persone più disparate, esperti di legge, filosofia, ingegneria ed etica devono mettersi insieme per risolvere queste questioni, nessuno può farlo da solo”.

Il dibattito è acceso e l’allarme è stato lanciato sia da Stephen Hawking che da Elon Musk, che si sono detti molto preoccupati sui rischi legati all’evoluzione dell’intelligenza artificiale. E così i due, insieme a 892 ricercatori di AI o robotica e 1445 altri esperti del settore tecnologico hanno approvato un testo chiamato “Asilomar AI Principles” (Principi Asilomar per AI) composto da 23 principi-guida che dovrebbero volgere ad uno sviluppo dell’AI in un modo produttivo, etico e sicuro. Un testo iniziale e non completo il cui obiettivo ultimo è quello di “creare un’intelligenza della quale beneficiare e non un’intelligenza senza uno scopo” senza trascurare questioni fondamentali come la sicurezza, il bene comune, la responsabilità, la privacy, il controllo umano, i rischi di un’ eventuale corsa alle armi AI. In ambito militare, infatti, diverse nazioni stanno già sviluppando sistemi di armamenti robotici in grado di scegliere in maniera autonoma un obiettivo prioritario tra i diversi possibili ed abbatterlo. Simili armi smart, richiedono ancora l’autorizzazione di un operatore umano per portare a segno l’attacco, ma i rischi letali legati a questi armamenti autonomi non possono non destare preoccupazione già da ora. Dell’argomento si parlerà in maniera più approfondita a giugno durante la Conference on Uncertainty in Artificial Intelligence (UAI) cercando di mettere al bando, attraverso una petizione firmata già da oltre mille esperti del settore, eventuali “robot killer” in grado di combattere ed uccidere senza essere guidati dall’uomo.

Non è un caso che nella risoluzione del Parlamento europeo con il quale si richiede alla Commissione europea di iniziare a sviluppare norme per disciplinare l’ambito della robotica, si parli anche di mitologia e letteratura: da Frankenstein, a Pigmalione, al Golem di Praga, “gli uomini da sempre hanno fantasticato sulla possibilità di costruire macchine intelligenti, spesso androidi con caratteristiche umane” che siano funzionali agli scopi per cui sono state generate impedendo allo stesso modo che suddette macchine possano rivoltarsi contro i propri creatori. La risoluzione approvata il 13 febbraio dai deputati UE in materia di “Norme di diritto civile sulla robotica” insiste specialmente sulla creazione di uno status giuridico per i robot con la prospettiva di classificare gli automi come “persone elettroniche” responsabili delle proprie azioni. Una delle prime esperienze reali di AI, che probabilmente necessiterà a breve di regole scritte, potrebbe essere quella delle auto a guida autonoma. Sarà forse questo il campo di prova per capire effettivamente come affrontare la questione etica delle macchine pensanti: un’auto senza conducente sceglierebbe di colpire dei pedoni o deviare ed andare a sbattere danneggiando i propri passeggeri? Limitare i danni sembra la risposta più ovvia, ma a quale costo e, soprattutto, a chi andrebbe poi la colpa dell’accaduto, alla macchina o al programmatore? La questione è totalmente aperta. Le macchine, forse, arriveranno a possedere una propria etica leggendo e riordinando il mondo in modo tale che non dipenderanno più da come sono state originariamente programmate, saranno in questo caso però “libere” di evolversi autonomamente? Alla base, penso che le macchine dovrebbero essere istruite in maniera tale da non arrivare mai da sole a sciogliere questioni delicate e pericolose, il cosiddetto coding etico. “Serve un’etica dell’algoritmo e quell’etica va costruita attraverso un confronto esterno al mondo dei laboratori perché deve mettere appunto in chiaro delle soglie limite sull’utilizzo delle macchine. Dovranno essere soglie universali, che si applichino oltre la singola invenzione o scoperta”, l’affermazione è di Giovanni Boccia Artieri, sociologo e docente di internet studies all’università di Urbino. Le tre leggi della robotica stanno per essere messa a dura prova, oggi dalle auto senza conducenti, domani da un’intelligenza artificiale sempre più pervasiva. E anche per questo, dobbiamo saper agire e dare regole precise già da ora per il mondo che verrà: non cancellare le tre leggi ma implementarle con tutte le possibili implicazioni future.

Gianluca Cimini

]]>
Fri, 31 Mar 2017 19:15:46 +0000 http://www.gianlucacimini.it/mc/510/1/tra-etica-e-rischi-vari-e-forse-tempo-di-riscrivere-le-leggi-delle-robotica---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
L’evoluzione umana e l’intelligenza artificiale, tra scienza ed innovazione - di Gianluca Cimini http://www.gianlucacimini.it/mc/509/1/l-evoluzione-umana-e-l-intelligenza-artificiale-tra-scienza-ed-innovazione---di-gianluca-cimini

Dove non arriverà l’intelligenza umana potrà farlo quella artificiale, che si parli di fisica della materia o di meccanica quantistica il discorso non cambia, i nostri ricercatori all’estero sono sicuri che una rete neurale possa risolvere problemi che né gli scienziati, né i supercomputer più potenti al mondo riescono a sbrogliare. É già accaduto e sarà ancora più facile che accada in futuro. L’ultima sfida vinta dal silicio riguarda proprio i calcoli labirintici della meccanica quantistica, dove i computer, sdoganati da intuizioni e preconcetti possono davvero fare la differenza. E così su uno studio pubblicato sulla rivista scientifica “Science” scopriamo che un complesso problema di meccanica quantistica è stato risolto grazie all’intelligenza artificiale di uno dei più potenti calcolatori d’Europa, che si trova a Lugano al Centro svizzero di calcolo scientifico. Un modello di intelligenza artificiale opportunamente configurato per riuscire a gestire informazioni dettagliate sul comportamento dei singoli atomi cercando di capire dove si trovi ciascuno di essi durante l’esperimento attraverso calcoli così intricati da risultare impossibili da risolvere per una mente umana. Le reti neurali, invece, riescono a dimezzare il tempo necessario alle equazioni necessarie per risolvere i vari problemi di meccanica quantistica muovendosi con scioltezza in campi in cui la nostra mente si trova ad essere, invece, goffa e lenta. Dalla mole di dati da analizzare il primo passo per una rete neurale è quello di imparare a selezionare gli elementi utili e trascurare quelli irrilevanti. Il software deve prima di tutto, infatti, imparare a muoversi escogitando soluzioni adeguate e selezionando quelle più utili al problema. Ad oggi il rischio che l’intelligenza artificiale superi quella umana è ancora remoto, secondo Giuseppe Carleo, docente di Fisica presso il Politecnico Federale di Zurigo, che ha realizzato con successo l’esperimento appena descritto, ma il discorso potrebbe lentamente cambiare un giorno con l’avvento dei computer quantistici che saranno in grado di processare dati a velocità oggi impensabili.

Da “Science” a “Nature Physics” , dalla meccanica quantistica alla fisica della materia, ma con le stesse reti neurali standard dell’intelligenza artificiale e gli stessi successi. Perché, pur cambiando ambito, gli algoritmi di machine learning utilizzati da un’equipe di ricercatori del Perimeter Institute for Theoretical Physics per identificare le fasi della materia, spalancano un universo di possibili applicazioni. Avendo fornito al supercomputer dell’Università di Waterloo una quantità altissima di dati e di immagini provenienti da decenni di ricerca sperimentale e di simulazioni, la macchina ha imparato a distinguere tra i diversi stati della materia e a riconoscerne anche le transizioni da una fase all’altra. Magari non tutti saranno effettivamente interessati dal saper distinguere la fase ordinata di un ferro magnete dalla sua fase disordinata, ma il concetto fondamentale è che tale ricerca avrà un impatto pratico in moltissimi campi e discipline: dal concetto dell’entanglement quantistico all’analisi delle conformazioni delle proteine e del dna tanto per fare un esempio.

Sia che si tratti di interpretare masse di dati, sia che si tratti di analizzare fenomeni complessi, è l’incontro dell’Intelligenza Artificiale con le varie materie di studio scientifiche che può portare ad innovazioni che prima di oggi non sono state minimamente prese in considerazione. Questa è la mia visione del futuro, ma probabilmente non solo la mia, dal momento che i creatori di “Watson”, il sistema di Intelligenza Artificiale dell’IBM, quando parlano del loro super-cervellone a piattaforma cloud, lo descrivono come colui che porterà innovazioni importanti, che cambieranno la vita delle persone in futuro, appena la sua evoluzione gli permetterà di potenziare ancora di più le sua abilità che già oggi gli permettono di leggere ed interpretare dati complessi, interagire in modo naturale con le persone e imparare in modo più efficace. Sia che si parli di esseri umani, sia di computer, il dibattito sui temi dell’evoluzione e dell’intelligenza come empowerment delle capacità cognitive di rispondere al cambiamento e alla velocità del cambiamento stesso è sempre più acceso. E pensare che la parola “evoluzione” fu utilizzata da Darwin nel suo “Origine delle specie” solo nelle ultime edizioni. E tale evoluzione è maturata nei secoli anche grazie alla triplicazione della nostra capacità cranica fin ad un momento inatteso e straordinario che ha portato nella nostra vita degli “strumenti” realizzati per una finalità specifica, per risolvere un problema o per rispondere al cambiamento delle condizioni ambientali. Se poi ci troviamo, su una scala  temporale differente e su una velocità inversamente proporzionale alla dimensione, a fare un raffronto con l’evoluzione del silicio trasformato in transistor, non è un azzardo, a mio avviso, cominciare a considerare l’intelligenza artificiale come una tappa della nostra stessa trasformazione che ci sta portando verso un nuovo salto evolutivo. Dai primati che imparavano ad usare gli utensili elementari per procacciarsi il cibo siamo arrivati ai giovani nati dopo il duemila che usano lo smartphone con totale dimestichezza. C’è una relazione articolata tra soggetto e strumento che mostra che in realtà noi agiamo e pensiamo anche in funzione degli strumenti e delle macchine che usiamo per interfacciarci con il mondo e con i nostri simili.

Siamo di fronte, quindi, ad un progresso di miglioramento che segue un piano prestabilito di sviluppo. Le tecnologie in grado di adattarsi meglio all’ambiente sono anche quelle che riusciranno ad affermarsi nel futuro, e noi ci stiamo “evolvendo” anche così, passo dopo passo, studio dopo studio, con una nuova ed innovativa tecnologia alla volta. 

Gianluca Cimini

]]>
Mon, 27 Mar 2017 17:02:26 +0000 http://www.gianlucacimini.it/mc/509/1/l-evoluzione-umana-e-l-intelligenza-artificiale-tra-scienza-ed-innovazione---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Pubblicità online e software che tentano di bloccarla, un rapporto complicato - di Gianluca Cimini http://www.gianlucacimini.it/mc/508/1/pubblicita-online-e-software-che-tentano-di-bloccarla-un-rapporto-complicato---di-gianluca-cimini

Agli internauti non piace la pubblicità online. Punto. Sembra un dato di fatto considerando un recente rapporto di PageFair del 2016 che afferma che circa l’11% degli utenti di internet nel mondo ha usato questi software, che risultano installati su oltre 615 milioni di dispositivi diversi, tra smartphone, tablet e computer fissi (e con un aumento del 30% rispetto all’anno prima).

Ma come funziona e a cosa serve un software, come Adblock per esempio, amato dai navigatori, ma odiato dai siti web, che limita la pubblicità online durante la navigazione? Il software in questione nasce come “estensione” per i maggiori browser (Firefox, Chrome, Safari, Internet Explorer) ed una volta installato blocca qualsiasi tipo di elemento pubblicitario, come ad esempio pop-up, banner, gli annunci dei video di YouTube, la pubblicità su Google e molto altro, mettendo allo stesso tempo anche l’utente al riparo da spam, phising e malware che spesso si celano proprio dietro a questi banner. La maggior parte dei software in questione utilizza delle liste di riconoscimento in grado di intercettare gli indirizzi internet che contengono elementi pubblicitari e di bloccare la visualizzazione di questi ultimi nel momento in cui vengono caricati sul browser tramite javascript. Esistono liste predefinite all’interno dei software così come è possibile all’utente creare proprie regole personali per creare la propria “whitelist,” ossia un elenco di siti internet considerati sicuri e che non verranno bloccati in automatico. L’utente si ritrova così a usufruire di pagine web caricate più velocemente, grazie all’esclusione degli elementi pubblicitari dalle pagine, un consumo di banda più limitato e, di conseguenza, una maggiore durata della batteria del dispositivo (nel caso di smartphone o tablet dal momento che ormai esistono “applicazioni” apposite sia per Android, sia per iOs, che svolgono il lavoro di bloccare la pubblicità online). Vivere un’esperienza browsing più naturale possibile, togliendo di mezzo banner e fastidiosi pop-up, sempre secondo un report di PageFair, porta, però, gli investitori online alla perdita di decine di miliardi di dollari ogni anno per il mancato ingresso dei ricavi sugli annunci. D’altro canto il sito web, che guadagna proprio grazie alle pubblicità visualizzate sulle sue pagine dai vari internauti, perde la sua fonte di sostentamento primaria. E così la lotta tra pubblicità e software che la limitano è più aperta che mai.

Facebook e Adblock Plus, per esempio, si sono scontrati apertamente sull’argomento in una particolare botta e risposta dove l’uno cercava di sopraffare l’operato dell’altro a proprio vantaggio: per tutelare i grandi incassi generati dalle inserzioni il social network di Mark Zuckerberg ha reso i contenuti di Facebook pubblicati dagli utenti indistinguibili dai contenuti pubblicitari così da diventare più difficili da filtrare per gli “occhi” informatici degli adblocker. 48 ore dopo le difese di Facebook sono state nuovamente superate dall’estensione per browser “Adblock Plus” e la battaglia tra i due è ancora in corso. Nell’ultimo anno Google ha rivelato, nel suo rapporto periodico Bad Ads, di aver rimosso 1,7 miliardi di annunci pubblicitari legati specialmente alla promozione di prodotti illegali, al gioco d’azzardo e alle “tabloid cloaking”, ossia un nuovo tipo di annuncio ingannevole che si spaccia per notizia. Gli annunci hanno un ruolo vitale nella sostenibilità economica dell’open web e sono una fonte immensa di guadagno per piattaforme come Google o Facebook, ma spesso possono nascondere, come abbiamo visto, insidie pericolose, come nel caso degli annunci “trick to click” che compaiono come avvertimenti del sistema operativo del dispositivo, ma poi scaricano software malevolo. Ed in questi casi gli adblocker possono arginare in parte il problema, non è un caso, infatti, che l’utilizzo di questi software su pc desktop abbia raggiunto i 236 milioni di terminali, con una particolare crescita in particolare sui dispositivi mobili, 380 milioni di terminali, dove la pubblicità risulta ancora più fastidiosa. Il fenomeno ha ormai superato le nicchie degli appassionati di tecnologia ed è diventato globale: Google ha calcolato che ormai solo il 54% di tutti gli annunci sul web viene visualizzato, mentre su YouTube la percentuale sale al 91%.

Si blocca la pubblicità per ragioni diverse: perché abbiamo paura di minacce informatiche e virus, perché interrompe la nostra esperienza di navigazione, perché ci regala maggiore velocità nella navigazione. Mentre certe pubblicità si possono più facilmente tollerare, come nel caso di banner statici che magari collegandosi ai nostri cookie ci informano su offerte che ci interessano, quello che non sopporto sono proprio quei messaggi che non permettono di essere saltati o che partono in automatico durante la navigazione. Alcuni siti hanno quindi introdotto dei cosiddetti “adblock walls” che riescono a riconoscere se stiamo navigando con un blocco per gli annunci pubblicitari attivo ed in questi casi ci pregano di disabilitarlo prima di proseguire nella navigazione web. Nonostante la percentuale di utilizzazione dei vari software adblocker in aumento, il web advertising ha comunque archiviato il 2016 con una crescita dell’8,2% (così come riporta l’ultimo report Nielsen sul mercato degli investimenti pubblicitari) con la “ricerca online” e i “social media” a spingere la crescita della componente Internet nella pubblicità. E così si è arrivati al punto che le grandi aziende di informatica come Google, Microsoft, Amazon e simili, che operano tutte nel settore pubblicità, stiano facendo accordi economici proprio con AdBlock Plus, sfruttando la loro posizione in una “white list” capace di aggirare l’estensione e impedire di bloccare la pubblicità. Sembra quasi un paradosso la notizia, invece potrebbe aprire un compromesso adeguato tra utenti ed inserzionisti dal momento che bloccherà solo gli annunci ritenuti fastidiosi dagli utenti, i quali potranno comunque decidere di bloccare anche le cosiddette “pubblicità accettabili”. Mi viene lecito pensare quanto può “costare” ad un editore entrare in una determinata “white list” perché probabilmente proprio di questo si tratta, un accordo economico tra pubblicitari e software che hanno fatto la loro fortuna bloccando quello che adesso permettono, ma non a tutti. Mi preoccupa il fatto che un software come Adblock Plus diventi di fatto un gateway attraverso cui transiterà buona parte della pubblicità sul web e che questa venga filtrata secondo le sue linee guida. I dati analizzati fin qui sono sicuramente il chiaro esempio che esiste un problema importante tra navigatori ed inserzionisti; l’augurio per il bene di entrambi è che questa possa diventare un’occasione in più per mettere al centro il problema e magari ripensare in maniera diversa il marketing online attraverso forme pubblicitarie che siano meno invadenti possibile, ma rimangano funzionali alle aziende. L’advertising web si è evoluto nel tempo, dovrà continuare a farlo per rimanere al passo con i tempi. 

Gianluca Cimini

]]>
Fri, 24 Mar 2017 18:39:09 +0000 http://www.gianlucacimini.it/mc/508/1/pubblicita-online-e-software-che-tentano-di-bloccarla-un-rapporto-complicato---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Il lato oscuro dei droni: azioni militari, infiltrazioni e pericoli di hackeraggio - di Gianluca Cimini http://www.gianlucacimini.it/mc/507/1/il-lato-oscuro-dei-droni-azioni-militari-infiltrazioni-e-pericoli-di-hackeraggio---di-gianluca-cimini

Qualche giorno fa vedevo un vecchio film dove un piccolo drone veniva lanciato, armato di telecamera, all’inseguimento di un ricercato per le vie della città, si muoveva veloce senza ostacoli e riusciva a trovar il fuggitivo attraverso l’abbinamento di un software di riconoscimento facciale. Facile, fin troppo. Quello che, però, era soltanto un intermezzo di azione in un film di qualche anno fa su tecnologia e spionaggio è oggi realmente possibile grazie ai grandi passi che l’evoluzione dei droni sta compiendo, e non è neanche troppo difficile dotarsi di un dispositivo simile, basta scendere praticamente sotto il centro commerciale vicino casa e andare nel reparto informatica, proprio tra i computer e i videogame per ragazzi. Come ho già scritto in un precedente articolo le possibilità di utilizzo dei droni crescono in maniera esponenziale alla loro diffusione, sia a scopo ricreativo sia commerciale. Ma cosa succede se questi mezzi vengono presi di mira da hacker senza scrupoli o da persone che perseguono finalità criminali?

Secondo un’indagine effettuata nel 2015 dall’Enav, la società nazionale per l’assistenza al volo che si occupa del controllo del traffico aereo, in Italia sono stati venduti oltre 100 mila droni, ma con un tasso di vendita stimato di circa 300 mila unità il calcolo è presto fatto: nel 2020 saranno circa un milione il numero di droni in Italia. E la maggior parte di questi potrebbero essere a rischio di hackeraggio. Il “drone jacking” è il nome che si dà a questa nuova forma di sabotaggio informatico che permette agli hacker di prendere il controllo in remoto di un qualsiasi drone. I droni commerciali, infatti, vengono controllati in maniera remota attraverso uno smartphone o un controller apposito, che di solito si connette via bluetooth, via wifi o rete cellulare al velivolo tecnologico. Come tutti gli oggetti “connessi”, quindi, anche i droni sono soggetti che presentano particolari punti deboli dal momento che, per funzionare, necessitano di un invio di dati elettronici attraverso l’ambiente esterno e lo spettro elettromagnetico. Le informazioni che viaggiano nello spazio virtuale e che connettono controller e drone sono, quindi, a rischio di malintenzionati se non opportunamente protette, proprio per questo la questione della cyber security, così come in altri ambiti di nuovo utilizzo come quello dell’IoT, ossia dell’Internet delle cose, deve essere un prerequisito fondamentale per creare un valido strumento di dissuasione e difesa verso possibili attacchi informatici. A differenza di malware e virus, il drone jacking è potenzialmente più pericoloso. Tale attacco può mettere a repentaglio la privacy (entrando nella vita privata delle persone) e creare problemi, purtroppo, anche maggiori, dal momento che un hacker potrebbe non solo sottrarre le immagini e le informazioni raccolte dal drone, ma addirittura prendere direttamente il controllo del mezzo e da quel momento utilizzarlo per ogni possibile attività illecita, dal farlo precipitare ad utilizzarlo per scopi di natura terroristica.

Basandosi su dati reali e accertamenti ben precisi, l’allarme, infatti, parte dall’intelligence francese, scopriamo che la prossima minaccia terroristica dell’Isis, stia mettendo in conto l’uso di velivoli a controllo remoto, costruiti a basso costo, molto simili a quelli già in commercio, ma armati con ordigni capaci di uccidere. Niente di strano sul fattore offensivo, dal momento che, da anni, le maggiori potenze mondiali utilizzano droni a controllo remoto per azioni di guerra o spionaggio in territori ostili. La novità, dettata anche dall’espansione di questo nuovo mercato tecnologico, è che non si parla di centinaia di migliaia di euro per un drone militare specifico , ma di droni costruiti artigianalmente (con fusoliere di compensato ed ali di polistirolo) o commerciali a basso costo riadattati per scopi illeciti. Fonti curde nei mesi passati hanno confermato l’utilizzo da parte dei terroristi islamici per il controllo della città di Mosul di droni opportunamente modificati per azioni di bombardamento, di risposta le forze armate irachene hanno risposto con altrettanti droni da ricognizione. Ormai la guerra sembra combattersi anche così e la cosiddetta “guerra dei droni” apre, tristemente, scenari allarmanti anche nel campo della sicurezza dei centri urbani, anche europei, con un possibile utilizzo a “sciame”, ossia in gran numero, dei droni modificati. La minaccia è presa sul serio da autorità ed eserciti: il Pentagono ha stanziato circa 20 milioni di dollari per la ricerca, l’esercito iracheno si è munito di speciali fucili capaci di sparare onde radio in grado di interrompere i collegamenti del drone rendendolo inutilizzabile (i cosiddetti jammer), possibili interventi con elicotteri in Europa, così come soluzioni più “naturali” da parte dell’esercito francese che, come contromisura ai droni, addestra aquile per ghermire il modello di velivolo a controllo remoto.

Ritornando all’hacking, invece, secondo un report sulla sicurezza redatto dall’azienda di sicurezza informatica McAfee, i primi toolkit che consentiranno agli hacker di prendere il controllo dei droni attraverso software malevoli cominceranno a presentarsi già nel 2017 attraverso il dark web. Nella maggior parte dei casi per correggere le vulnerabilità software basterebbe un aggiornamento, ma fino ad oggi ben poco è stato fatto per quanto riguarda la sicurezza informatica di questi oggetti. A causa dello sviluppo tecnologico, infatti, lo scenario è in rapido mutamento e bisogna essere pronti a tutto. Quello tra i droni e i temi legati alla sicurezza è un conflitto ormai noto. E non solo in merito alle normative sugli oggetti in volo e la privacy. Il problema principale per i produttori è che ancora non esistono regole precise da seguire nella fase di progettazione. In futuro potranno, e dovranno, essere usate regole di crittografia del collegamento di controllo per evitare il dirottamento e misure per prevenire la manomissione via GPS. Gli esperti del settore della “cyber security” intendono per il futuro muoversi dal concetto di “cyber defence” a quello di “cyber resilience” attraverso l’utilizzo di sistemi che siano infatti “resilienti”, ovvero in grado di continuare ad operare in sicurezza anche qualora siano vittime di un attacco o comunque, di ‘autodistruggersi’ nei casi in cui ne sia compromesso il legittimo controllo. Proprio perché il fenomeno dei velivoli a pilotaggio remoto (APR) è un fenomeno dinamico ed in rapida evoluzione è necessario, a mio avviso ,che l’impegno da parte delle Istituzioni e dei produttori di droni sia altissimo in maniera tale da convogliare importanti risorse economiche proprio verso il settore che in questo campo è stato più trascurato, ossia quello della sicurezza cibernetica prima che i droni diventino la nuova frontiera dell’hacking mondiale.

Gianluca Cimini

]]>
Mon, 13 Mar 2017 17:58:49 +0000 http://www.gianlucacimini.it/mc/507/1/il-lato-oscuro-dei-droni-azioni-militari-infiltrazioni-e-pericoli-di-hackeraggio---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Commercio, trasporti e scopi umanitari: il lato "buono" dei droni - di Gianluca Cimini http://www.gianlucacimini.it/mc/506/1/commercio-trasporti-e-scopi-umanitari-il-lato-buono-dei-droni---di-gianluca-cimini

Utilizzati ormai in tutti gli scenari mondiali i droni sono usciti dall’ambiente militare in cui sono nati e si sono evoluti, per diventare sia giocattoli hi-tech per bambini, sia mezzi a dir poco fantascientifici dai mille scopi commerciali e civili.

Nati negli anni ’30 negli Stati Uniti come target per le esercitazioni militari, i velivoli a controllo remoto, caratterizzati dall’assenza del pilota umano a bordo, hanno cambiato nel tempo funzioni e caratteristiche. Il termine “drone” poi sembra derivare da una parte dalle caratteristiche che riguardano il rumore che il velivolo produce (in inglese antico il termine significava infatti “rimbombo”), dall’altra dalla metafora del fuco, il maschio dell’ape, e dalla sua tipica passività ricollegata alle specifiche di utilizzo del mezzo usato come bersaglio volante per le esercitazioni dell’aeronautica. Il tempo, però, ha voluto che tale passività dei droni subisse un riscatto vero e proprio, tali oggetti sono passati, infatti, prepotentemente dal ruolo di bersagli a veri e propri protagonisti dell’aviazione mondiale.

A fine dicembre, dopo tre anni di test in Europa, Amazon ha finalmente festeggiato la prima consegna di un pacco tramite un drone in Gran Bretagna. Il drone interessato, con guida da remoto via GPS, ha trasportato un pacco per alcuni chilometri depositandolo, infine, su un quadrato di 40 centimetri per lato con impressa una “A” che funge da “bersaglio” per l’APR (aeromobile a pilotaggio remoto) nel tempo record di 13 minuti.

Il problema futuro sarà capire, per il colosso dell’e-commerce, come abbracciare le norme che regolano il traffico aereo anche negli altri paesi che saranno coinvolti nei test, negli Stati Uniti, infatti, la Federal Aviation ha imposto regole stringenti sull’utilizzo dei droni commerciali che ad oggi ne vietano l’utilizzo per trasportare pacchi da remoto. Quegli stessi pacchi che, secondo un brevetto registrato da poco, in futuro potrebbero essere direttamente “paracadutati” dal drone per velocizzare il trasporto ed ottimizzare l’energia necessaria al velivolo per un eventuale atterraggio. Ma il sogno di Amazon di diventare leader nel mercato delle spedizioni non finisce così ed un altro brevetto, ancora più fantascientifico, parla di un vero e proprio centro di stoccaggio merci situato su un dirigibile che nei piani della società di e-commerce dovrà rifornire i droni di oggetti da consegnare con la capacità di spostarsi a suo piacimento nei punti strategici del globo seguendo i picchi delle richieste del mercato: uno “Zeppellin commerciale” era qualcosa a cui davvero non avevo mai pensato prima. Insomma Amazon pensa in grande riguardo a come migliorare il proprio servizio, ma non è l'unica azienda che nei droni vede una parte del business del futuro.

Da giugno 2017 Dubai diventerà la prima città al mondo con attivo un servizio di trasporto aereo individuale, il drone cinese EHang 184, infatti, non si occuperà dello spostamento di pacchi ma di persone: il velivolo autopilotato, in fibra di carbonio ed a alimentazione elettrica, aprirà così un nuovo settore commerciale con la possibilità di trasportare, nella sua prima versione, una persona dal peso massimo di 117 chili con valigetta annessa, con un’autonomia di circa mezz’ora ed un massimo di 50 chilometri. Al passeggero basterà salire a bordo del quadrirotore, allacciare le cinture e premere la destinazione sul display di bordo per iniziare a solcare i cieli ed evitare code automobilistiche e possibili congestioni stradali.

La flessibilità d’utilizzo offerta dai droni apre, comunque, tantissimi scenari di utilizzo. In Cina, per esempio, una compagnia di manutenzione della rete elettrica li utilizza, solo per fare un ulteriore esempio, per operare sulle linee ad alta tensione dove l’intervento umano risulterebbe più pericoloso e meno conveniente in termini di tempistiche, in questo caso dei speciali droni attrezzati con un lanciafiamme si occupano di pulire i cavi elettrici da oggetti di plastica come sacchetti ed altri tipi di spazzatura che ci si depositano. In Giappone più di 2.500 droni ad ala rotante si occupano invece di innaffiare le risaie, l’utilizzo agricolo di questa tecnologia è una delle applicazioni emergenti più in voga, sperimentazioni simili sono in corso anche in Italia per combattere i parassiti del mais, mentre una non violenta “Tomato Air Force” ad opera della Coldiretti Lombardia pattuglia le coltivazioni di pomodoro fra Cremona, Mantova e Brescia.

E così droni in aria, sistemi ottici a terra e sensori sui campi, attraverso una gestione integrata delle diverse tecnologie, portano l’agricoltura “di precisione” (anche detta agri-tech) a potenziare questo importante settore dell’economia italiana. I droni del futuro saranno ancora più performanti, piccoli ed affidabili ed alcuni di loro, realizzati per scopi particolari, potranno essere anche usa e getta, senza motore e biodegradabili. La realizzazione di questi particolari droni è legata al progetto “Icarus” ed è realizzato da la Darpa, l’agenzia del governo statunitense che lavora sui più evoluti progetti di difesa, con lo scopo umanitario di recapitare medicine in zone remote o isolate a causa di conflitti, calamità naturali o altre ragioni. Un’idea simile era già stata realizzata in ottobre dalla startup Zipline per la consegna di alcune sacche di sangue in Ruanda.

Nella mia ricerca sull’evoluzione dei droni, sempre a fini umanitari, mi sono imbattuto anche nel progetto “Sherpa” (realizzato dal DEI dell’Università di Bologna ed un gruppo di giovani ricercatori europei) un sistema di soccorso che combina l’azione dell’uomo a quella  di droni, robot ed aeromodelli per raggiungere luoghi colpiti dalla slavine in pochi minuti e localizzare i dispersi attraverso uno screening della zona colpita realizzato con foto delle aree interessate realizzate anche con telecamere ad infrarossi e la registrazione degli impulsi dei segnalatori che scalatori e sciatori esperti portano con sé. Ricordando che i primi droni autonomi quando fecero il loro esordio in campo militare presero il nome di “angeli della morte” è lecito immaginarsi che le cose stiano cambiando e che una tecnologia simile stia, fortunatamente, maturando in molte altre direzioni. 

Gianluca Cimini

]]>
Thu, 9 Mar 2017 20:55:27 +0000 http://www.gianlucacimini.it/mc/506/1/commercio-trasporti-e-scopi-umanitari-il-lato-buono-dei-droni---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Iniziative e consigli per vivere una rete migliore, arriva il Safer Internet Day - di Gianluca Cimini http://www.gianlucacimini.it/mc/505/1/iniziative-e-consigli-per-vivere-una-rete-migliore-arriva-il-safer-internet-day---di-gianluca-cimini

Nato come evento annuale ed organizzato da INSAFE e INHOPE con il supporto della Commissione Europea, il Safer Internet day (che si è svolto il 7 febbraio in oltre 100 paesi con il motto “Be the change; unite for a better internet”) è una giornata durante la quale ci si impegna a promuovere un uso più sicuro del web e delle nuove tecnologie. Ideato principalmente per bambini e giovani di tutto il mondo con l’obiettivo di metterli in guardia dalle minacce della rete e consegnare loro strumenti idonei alla difesa dai pericoli del web, non sono mancati in questa occasione consigli validi anche per genitori ed adulti affinché in loro si crei una vera e propria cultura della Rete.

“Fare del web un luogo migliore” è stato, quindi, il fine di questa giornata particolare nella quale i ragazzi hanno potuto scoprire non solo un uso più consapevole della rete , ma quanto sia importante essere responsabili e partecipare attivamente a rendere il web un luogo più positivo, più libero, più sicuro. Nella stessa giornata si è tenuta, inoltre, la Prima Giornata nazionale contro il bullismo e il cyberbullismo a scuola dal titolo "Un nodo blu - le scuole unite contro il bullismo". Il crescente fenomeno del cyberbullismo richiede, infatti, sempre più una maggiore consapevolezza sul corretto uso dei nuovi media digitali, in modo particolare se parliamo dei social network che così profondamente sono entrati nella vita di tutti noi, in special modo dei giovani e giovanissimi. Per contrastare un fenomeno di grande gravità come questo bisogna, a mio avviso, saper prevenire grazie ad uno sforzo congiunto messo in atto da insegnanti, familiari e mass media insieme. Insegnando ai giovani a non coltivare la cultura dell’odio trasformando quello che è un mezzo fondamentale d’informazione e socializzazione in uno strumento di attacco personale volto, purtroppo, contro i più deboli, spesso in giovanissima età, che si trovano emarginati e sotto accusa senza poter agire in loro difesa. Proprio perché certe azioni vengono vissute come “virtuali” senza attribuzioni di danni nel mondo “reale” , a volte i giovani non riescono a capire l’impatto delle proprie azioni in rete. C’è, purtroppo, l’incapacità di capire l’impatto che la comunicazione ha sull’altro. L’unica strada in questo caso, come consiglia anche il Garante dei minori, è quella della formazione e della sensibilizzazione, ed è proprio in giornate come questa che si può tornare a discutere in maniera più approfondita dei pericoli del mondo virtuale. E , purtroppo, da recenti ricerche dell’Università la Sapienza scopriamo oggi che l’82% dei ragazzi intervistati non considera grave insultare, ridicolizzare o rivolgere frasi aggressive sui social considerando che l’atto aggressivo verbale può essere considerato non grave o irrilevante poiché non dà luogo a violenza fisica diretta. Niente di più sbagliato.

Durante questa giornata di iniziative varie non si parla solo di cyberbullismo (fenomeno in gran parte sommerso, ma che sta giungendo all’attenzione dei media anche grazie alla nuova proposta del governo per contrastarlo che proprio in questi giorni è in via di discussione e approvazione alla Camera), ma anche di altri fenomeni sconosciuti ai più come il “grooming” (una subdola forma di adescamento online attraverso i social network), violazione delle norme sulla privacy, violazioni del diritto all’immagine, linguaggi aggressivi e tanti altri. Mondi esistenti, ma sconosciuti a genitori ed adulti che magari ne vengono a conoscenza solo quando ormai è troppo tardi.

Ci troviamo a diventare sempre più connessi, sempre più social, ma siamo a volte ignari delle nostre conseguenze ed azioni. I nostri dati vengono registrati mentre navighiamo, fingiamo di essere preoccupati, ma ormai abbiamo interiorizzato ed accettato l’idea che sia il giusto compromesso per poter accedere a servizi che ci interessano, quando spesso invece interessa più all’azienda conoscere i nostri movimenti, i nostri gusti, i nostri contatti. Fondamentale è anche, a mio avviso, la collaborazione dei vari social network con associazioni, forze dell’ordine, ministeri e garanti di infanzia e privacy per la tutela dei minori.Grazie anche agli altri argomenti affrontati durante questa importante giornata è stato messo in evidenza che, senza funzioni efficienti per la segnalazione di contenuti inappropriati o speciali task force che si occupino proprio dell’aumento dell’odio su internet o della propaganda di notizie palesemente false, la libertà di internet rischia di diventare anarchia. Un altro fattore importante quando si naviga, sempre più importante a mio avviso, come abbiamo scoperto in periodo di elezioni, perché può modificare idee ed opinioni, è  capire quanto le persone riescono a dare valore di verità o falsità alle notizie lette su internet, perché l’effetto” bufala” è dietro l’angolo e spesso rimbalza senza difficoltà da social a social, da profilo a profilo, portando così alla diffusione spesso incontrollata di informazioni erronee, incomplete o addirittura completamente false, portando così l’opinione pubblica meno attenta a prendere per vero quello scritto magari come scherzo senza immaginare i risvolti di un gesto così grave. Non basta, quindi, ad una notizia per essere attendibile che sia tra i primi risultati di ricerca dell’indice di Google, né bisogna prenderla come vera solo perché condivisa da persone o personaggi di cui ci fidiamo. Controllare sempre le fonti delle notizie così come cercare su internet lo stesso argomento trattato da siti differenti è fondamentale per farsi un giudizio il più possibile neutrale sull’accaduto, un discorso che vale anche per la carta stampata da sempre, ma che risulta ancora più articolato e difficile ora che i social network riescono a muovere opinioni e news a velocità prima impossibili grazie alla stampa tradizionale. E gli stessi adulti che dovrebbero esercitare un ruolo di guida in un contesto complesso e in continua evoluzione, come quello del mondo e delle tecnologie digitali, invece, spesso, hanno le stesse conoscenze dei ragazzi e gli stessi livelli di consapevolezza delle conseguenze dei loro comportamenti in rete.

Navigare in modo sicuro sul web non è un gioco da ragazzi, ma con le dovute accortezze è alla portata di tutti: c’è da imparare a gestire la password per ognuno dei tanti account, capire quando e se pubblicare un contenuto sui social network senza dimenticare di fare attenzione a potenziali attacchi hacker che possono giungere in ogni momento. Password efficaci, così come ci ricorda anche Google, sono il primo strumento di difesa contro i crimini informatici, è fondamentale, quindi, usare password diverse per ogni account, possibilmente lunghe e che utilizzino lettere, numeri e simboli. Esistono poi strumenti tecnologici per sentirsi più al sicuro come tecnologie anti-spam o avvisi che ci suggeriscono di non visitare alcuni siti poiché potrebbero contenere malware o truffe che usano il phising. Ognuno, dai grandi provider ai singoli utenti, deve fare la sua parte per rendere, insieme, internet un posto migliore.

Gianluca Cimini

]]>
Mon, 6 Mar 2017 20:37:09 +0000 http://www.gianlucacimini.it/mc/505/1/iniziative-e-consigli-per-vivere-una-rete-migliore-arriva-il-safer-internet-day---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)
Fuori dalla sua bozza teorica, il 2017 sarà l’anno del computer quantistico - di Gianluca Cimini http://www.gianlucacimini.it/mc/504/1/fuori-dalla-sua-bozza-teorica-il-2017-sara-l-anno-del-computer-quantistico---di-gianluca-cimini

Ne abbiamo sentito parlare per mesi e, finalmente, le più grandi aziende della tecnologia mondiale stanno spingendo forte in questo settore che, a detta degli esperti, potrà migliorare sensibilmente la vita di tutti i giorni: il computer quantistico durante il 2017 uscirà dalla sua bozza teorica e si trasformerà in qualcosa di tangibile e realmente funzionante. Molto più potente di qualsiasi computer mai concepito e dalla portata rivoluzionaria, la macchina inseguita da decenni ha finalmente un progetto preciso che porterà alla realizzazione entro due anni del primo prototipo funzionante: potente nelle prestazioni così come grande nelle dimensioni (si parla della grandezza di un campo di calcio) e nei costi (pari a circa 100 milioni di euro). Descritto sulla rivista Science Advances, il progetto si deve al gruppo coordinato da Winfried Hensinger, dell'università britannica del Sussex. Molto dipenderà dal numero di partner interessati al progetto e agli investimenti che si effettueranno per la realizzazione, ma, una volta finito il progetto, verrà alla luce un computer in grado di risolvere in poco tempo problemi che per un normale computer richiederebbero miliardi di anni e, con una tale potenza di calcolo, il mondo dell’industria, del commercio e della ricerca scientifica in primis potrebbe trovarsi di fronte ad una nuova rivoluzione.

Nell’ambito della ricerca pura si discute ormai da anni di calcolo quantistico con l’obiettivo di passare ad una sua applicazione concreta, non solo i grandi colossi dell’informatica come Google e Microsoft , ma anche numerosi laboratori di università e start-up stanno cercando di portare alla realtà un progetto così avveniristico. L’idea innovativa alla base è quella di sfruttare i tipici fenomeni della meccanica quantistica per creare una macchina in grado di elaborare informazioni ad una velocità impensabile per le moderne tecnologie. Fino ad oggi i nostri computer hanno codificato le informazioni tramite un’unità chiamata “bit” capace di assumere due valori (0 e 1) che, tramite lunghissime sequenze, vanno a formare i comandi ed i software che utilizziamo ogni giorno per i nostri scopi più vari. In un computer quantistico tali informazioni sono invece codificate tramite una versione quantica  dei bit ossia i “qubit” che possono assumere tre valori (0, 1 od entrambi). Grazie a due effetti tipici della meccanica quantistica, ossia la “sovrapposizione degli stati”, un qubit può trovarsi in una condizione in cui i due stati diversi si trovano sovrapposti, e “l’entanglement” in cui due particelle microscopiche diverse possono condividere lo stesso stato quantico pur trovandosi ad una grande distanza l’una dall’altra, si potrebbe avere un incremento esponenziale della velocità di calcolo. A differenza però del bit, rappresentato da un elemento o un componente capace di alternare due stati (come il voltaggio in un circuito o una sorgente luminosa) per il qubit è necessario ricorrere agli elettroni, ai fotoni o in più in generale lavorare a livello subatomico, con le comprensibili difficoltà che ciò comporta, con all'interno dispositivi che mantengono il tutto a temperature vicine allo zero assoluto poiché la vivacità della materia si abbassa notevolmente col freddo.

Dagli anni ’60 la cosiddetta “legge di Moore”, uno dei pilastri per mezzo secolo del progresso informatico, ha predetto che ogni 18/24 mesi i processori dimezzano il proprio prezzo e proprie dimensioni pur raddoppiando la potenza di calcolo, e così è stato fino ad oggi grazie agli enormi investimenti nel settore dei semiconduttori. Ora siamo, però, ad un punto di svolta, ad un rallentamento ed a una ottimizzazione della tecnologia esistente, che potrebbe essere, tuttavia, l’anticamera del prossimo salto generazionale che si aprirà con i computer che si affideranno alla “supremazia del quanto” (“Quantum supremacy” è, infatti, la definizione data da Google in uno studio che descrive i piani futuri per la creazione di un computer quantistico da 50 qubit.) Tale supremazia non deriverà tanto dal superamento dei limiti della potenza di calcolo dei computer tradizionali, quanto dalla possibilità di eseguire operazioni e risolvere problemi che sono concettualmente preclusi alle macchine basate sui bit. E così le nuove applicazioni computazionali potranno velocizzare lo sviluppo delle tecniche di machine learning e dell’intelligenza artificiale, non solo grazie a potenze di calcolo maggiori, mas grazie alla possibilità di affrontare problemi di enorme complessità da prospettive completamente nuove e con maggior efficienza grazie alla ridefinizione di procedure e algoritmi. Nel frattempo le più grandi aziende del mondo stanno portando avanti la ricerca sui computer quantistici nelle loro sedi, ne è un esempio l’IBM che ha reso il suo computer quantistico una risorsa cloud accessibile a tutti, tramite la sua IBM Cloud Platform a cui ci si può iscrivere attraverso un apposito form online se siete curiosi di provare questa nuova tecnologia. L’utilizzo di piattaforme cloud renderebbe, inoltre, irrilevante l’oggetto che usiamo per fare quello di cui abbiamo bisogno, che sia un tablet, una console o un frigorifero, aprendo nuove modalità di utilizzo grazie alle, ormai economiche, risorse cloud disponibili oggi. Dal punto di vista pratico i computer quantistici aprono scenari che fino a oggi sono rimasti confinati alla fantascienza, d’altro canto, però, computer così potenti potrebbero vanificare in pochi attimi l’efficacia dei più potenti algoritmi di cifratura in uso oggi rendendo superflui tali strumenti fondamentali che utilizziamo ogni giorno (dalla cifratura dei numeri di carta di credito che transitano sulle reti ai codici militari), grazie alla potenziale risoluzione in maniera rapidissima dei vari e complicati problemi matematici alla base della crittografia contemporanea. Questo mi porta ad immaginare un computer che, dopo avere effettuato in pochissimo tempo i suoi calcoli, abbia ancora tempo e spazio in memoria sufficienti per analizzare i suoi stati interni di continuo: in pratica, un computer in grado di simulare la coscienza e non so se questo mi affascina o mi fa paura.

Gianluca Cimini

]]>
Wed, 1 Mar 2017 19:18:42 +0000 http://www.gianlucacimini.it/mc/504/1/fuori-dalla-sua-bozza-teorica-il-2017-sara-l-anno-del-computer-quantistico---di-gianluca-cimini gianlucacimini2016@gmail.com (Gianluca Cimini)