Le città Intelligenti

22
773 ... perché, guardando il mondo di oggi, il cambiamento più eviden- te non è solo la disponibilità di tecnologia, ma il suo impatto sulla umanità. L’ICT altera radicalmente il modo in cui le persone abitano il mondo, come interagiscono, come percepiscono il mondo attorno a loro: infatti, sta cambiando quello che significa essere un essere umano nella società. Pensate alla consapevolezza che abbiamo del mondo che ci cir- conda, a come essa viene modificata e rafforzata dalla disponibi- lità di più flussi di informazioni provenienti da più fonti, tutte a misura dei nostri interessi. Questa consapevolezza estesa ha un impatto sulla nostra intelligenza, sulla nostra coscienza e sulla società: su quelle cose che sono fondamentali all’essenza umana.* Neelie Kroes (Vice-Presidente della Commissione Europea e re- sponsabile dell’Agenda Digitale) Introduzione Il mondo è caldo, piatto e affollato, così Thomas Friedman 1 intitola il suo ultimo libro. Fortunatamente possiamo notare che è anche sempre più intelligente. Sì, il nostro mondo sta diventando sempre più in grado di par- larci ed è sempre più interconnesso: persone, sistemi e oggetti possono comunicare e interagire gli uni con gli altri in modi completamente nuovi. Ora abbiamo la capacità di misurare, sentire e vedere in modo istantaneo lo stato di tutte le cose. Quando tutte le cose, inclusi i processi e metodi di * Paradiso conference: The Internet for a global sustainable future. Brussels, 8 settembre 2011. 1 T.L. FRIEDMAN, Caldo, piatto e affollato. Com’è oggi il mondo, come possiamo cam- biarlo, Milano 2010. LE CITTÀ INTELLIGENTI. COME I COMPUTER STANNO CAMBIANDO IN MEGLIO IL MONDO INTORNO A NOI Roberto Siagri

description

Come i computer stanno cambiando in meglio il mondo intorno a noi

Transcript of Le città Intelligenti

Page 1: Le città Intelligenti

773

... perché, guardando il mondo di oggi, il cambiamento più eviden-te non è solo la disponibilità di tecnologia, ma il suo impatto sulla umanità. L’ICT altera radicalmente il modo in cui le persone abitano il mondo, come interagiscono, come percepiscono il mondo attorno a loro: infatti, sta cambiando quello che significa essere un essere umano nella società. Pensate alla consapevolezza che abbiamo del mondo che ci cir-conda, a come essa viene modificata e rafforzata dalla disponibi-lità di più flussi di informazioni provenienti da più fonti, tutte a misura dei nostri interessi. Questa consapevolezza estesa ha un impatto sulla nostra intelligenza, sulla nostra coscienza e sulla società: su quelle cose che sono fondamentali all’essenza umana.*

Neelie Kroes (Vice-Presidente della Commissione Europea e re-sponsabile dell’Agenda Digitale)

Introduzione

Il mondo è caldo, piatto e affollato, così Thomas Friedman1 intitola il suo ultimo libro. Fortunatamente possiamo notare che è anche sempre più intelligente. Sì, il nostro mondo sta diventando sempre più in grado di par-larci ed è sempre più interconnesso: persone, sistemi e oggetti possono comunicare e interagire gli uni con gli altri in modi completamente nuovi. Ora abbiamo la capacità di misurare, sentire e vedere in modo istantaneo lo stato di tutte le cose. Quando tutte le cose, inclusi i processi e metodi di

* Paradiso conference: The Internet for a global sustainable future. Brussels, 8 settembre 2011.

1 T.L. Friedman, Caldo, piatto e affollato. Com’è oggi il mondo, come possiamo cam-biarlo, Milano 2010.

Le città inteLLigenti.come i computer stanno cambiando in megLio

iL mondo intorno a noi

Roberto Siagri

Page 2: Le città Intelligenti

774

lavoro saranno intelligenti, potremo rispondere al cambiare delle condizio-ni più rapidamente e con più precisione, e ottenere risultati previsionali migliori e una miglior ottimizzazione degli eventi futuri. Da questa trasfor-mazione in atto prende corpo l’idea delle Città Intelligenti (dall’inglese Smart Cities), che sono città in grado di agire attivamente per migliorare la qualità della vita dei propri cittadini conciliandola con le esigenze del com-mercio, delle imprese di produzione e di servizi e delle istituzioni, grazie all’impiego diffuso e innovativo delle tecnologie digitali. Da questa defini-zione generale si intuisce la provenienza del termine; per capirne l’origine va compresa l’evoluzione storica dei calcolatori così come l’evoluzione storica del rapporto tra computer e umani. Come facevano notare Mark Weiser e John Seely Brown in un loro lavoro seminale del 1996 dal titolo Designing Calm Technology,2 l’evoluzione tecnologica ha la proprietà di modificare in maniera sostanziale il posto, al centro o alla periferia, della tecnologia nella nostra vita. Potremmo anche dire che ciò che conta non è la tecnologia in sé ma la sua relazione con noi individui. Per comprendere meglio la questione dobbiamo andare a vedere come il calcolatore moder-no (il cosiddetto computer) ha cambiato nel corso della sua breve storia di circa 60 anni questa relazione. In questo breve lasso di tempo si possono infatti evidenziare tre fasi (fig. 1) contraddistinte da tre diversi tipi di para-digma di calcolo correlati con tre tipologie di relazione, che prima verranno elencate e poi descritte più in dettaglio. Nella prima fase il rapporto è stato del tipo mainframe, nella seconda il rapporto è stato del tipo personal com-puter e oggi, grazie alla connettività internet diffusa e al basso costo dei componenti elettronici (in inglese chip), siamo entrati a pieno titolo nella terza fase, quella dei “computer a distribuzione diffusa”, anche detta in ambito consumer fase dell’internet delle cose o internet degli oggetti (in inglese: Internet of Things, talvolta abbreviata con l’acronimo IoT) mentre in ambito professionale si usa di più l’acronimo M2M, dall’inglese Machine to Machine ovvero “macchina a macchina”. In seguito useremo l’acronimo IoT anziché l’acronimo M2M, anche se i due si possono per i nostri fini ritenere intercambiabili.

2 M. Weiser, J.S. BroWn, Designing Calm Technology, «PowerGrid Journal» I, 1 (1996) <http://powergrid.electriciti. com/1.01>.

Page 3: Le città Intelligenti

775

0

2

4

6

8

10

12

14

16

18

20

22

Mainframe PC UC

Vend

ite/A

nno

1. I principali Trend dell’evoluzione del Calcolo e le unità vendute su base annua in unità relative.3

Benché in questa fase si sia entrati da pochi anni, l’origine del concet-to di IoT è comunque attribuibile a Mark Weiser e lo si trova infatti già enucleato in un suo scritto4 del 1991 in cui lui immagina e descrive, per l’appunto, i calcolatori di oggi e la loro interazione con noi umani. Una fase evolutiva, questa terza, caratterizzata da una profonda interrelazione tra il mondo digitale (fatto di calcolo e di dati digitali in forma di bit) ed il mondo reale (in cui le cose sono fatte di atomi). Una fase che nel tempo ha assunto diversi nomi: Mark Weiser l’aveva chiamata la fase del computer ubiquo, poi a inizio secolo venne chiamata del calcolo pervasivo o anche dell’intelligenza diffusa (dall’inglese Ambient Intelligence). Una nuova fase per una nuova era, che ci porta a parlare di realtà aumentata in contrappo-

3 <http://www.ubiq.com/hypertext/weiser/UbiHome.html>.4 M. Weiser, The Computer for the Twenty-First Century, «Scientific American»,

CCLXV, 3 (1991), 94-104.

Page 4: Le città Intelligenti

776

sizione alla realtà virtuale che sta solo dentro il computer. La distribuzione capillare dei calcolatori negli oggetti materiali che ci stanno intorno ci permette di guardare il mondo come se avessimo più dei nostri cinque sensi, o meglio potenzia la nostra capacità di percepire la realtà, quasi che fossimo forniti di una sorta di esoscheletro computazionale5 che possiamo indossare virtualmente e che ci invia ed elabora quantità di dati tali da aumentare la capacità percettiva dei nostri sensi. Mentre la realtà virtuale è principalmente un problema di potenza di calcolo e programmi di simu-lazione, la realtà aumentata è invece un problema complesso di integrazio-ne di fattori umani con l’informatica, con l’ingegneria e con le scienze so-ciali. Ecco allora che le città intelligenti sono città in grado di rendere di-sponibile la miriade di dati e informazioni che arrivano dai computer dis-seminati nell’area urbana, in modo da dare in tempo reale una migliore e più approfondita conoscenza della città agli amministratori e ai cittadini, facilitando la loro vita e liberandoli da tutta una serie di incombenze grazie ad una migliore qualità ed efficienza dei servizi di trasporto e ospitalità, di sicurezza, di pronto soccorso, di telemedicina, di risparmio energetico, di monitoraggio dell’inquinamento, di raccolta dei rifiuti e così via. Le città intelligenti ci danno dunque una maggiore tranquillità quando le abitiamo, perché ci sentiamo più preparati ad ogni evenienza, siamo cioè in grado di pianificare meglio il nostro futuro, che ci appare così meno minaccioso e meno imperscrutabile. Come immaginato da Weiser e Brown, la tecnologia approccia le nostre vite in una maniera così amichevole che già nel ’96 la chiamarono l’era della «tecnologia della calma», una tecnologia che, come vedremo, permette di mettere in relazione centro e periferia, donandoci una percezione del mondo più rassicurante.

Le tre fasi evolutive dei calcolatori

La prima fase, che va dalla fine degli anni ’50 alla fine degli anni ’80 dello scorso secolo, è chiamata mainframe, per ricordare il rapporto che le persone avevano con i computer, i quali erano per lo più gestiti da esperti a porte chiuse. Una fase in cui il computer era una risorsa scarsa e oltre-modo costosa, il cui uso doveva essere prima negoziato con i responsabili

5 R. siagri, Pervasive computers and the GRID: the birth of a computational exoskeleton for augmented reality, in Proceedings of International Workshop on Principles of Software Evolution, Dubrovnik 2007, 1-4.

Page 5: Le città Intelligenti

777

del centro di calcolo e poi condiviso con altri utenti esperti. Il tutto in una sorta di ritualità sacra dove la divinità era il mainframe, il tempio era il centro di calcolo, il gran sacerdote era il direttore del centro e i pochi uten-ti erano la sparuta schiera degli eletti ammessi ai riti. Nell’era dei mainfra-me, il rapporto tra umani e computer si riduceva a questo, perché più uti-lizzatori erano costretti a condividere la stessa macchina, ma si notava già un abbozzo di futuro, perché i terminali informatici (monitor e tastiera con un minimo di intelligenza locale) cresceranno sempre più in potenza e autonomia, e ci seguiranno nel tempo dato che tuttora interagiamo con il computer tramite gli occhi e le mani, fino a trasformarsi di recente in un’u-nica unità integrata il monitor con touch-screen dei nuovi tablet e smart-phone.

La seconda grande fase è stata quella del personal computer (PC), che possiamo collocare tra il 1985 e il 2005 (fig. 2). A metà degli anni ’80 il numero di persone che utilizzavano il personal computer superò il numero di persone che utilizzavano computer condivisi,6 e il rapporto con il com-puter diventò di tipo personale. Oggi siamo abituati a pensare al “nostro” computer, che contiene i nostri dati e interagisce direttamente e profonda-mente con essi, e quando non è occupato a fare le nostre cose non fa nient’altro. Ma il personal computer, quando cominciò a entrare nelle no-stre case, era quasi come l’automobile: un elemento speciale, relativamente costoso, che ti poteva “portare dove volevi andare” ma richiedeva una notevole attenzione per operare. Oggi, proprio come si possono avere più automobili, si possono avere più personal computer, da utilizzare a casa, al lavoro e per andare in giro. La definizione allora di PC è quella di un com-puter con cui si ha un rapporto speciale e che viene utilizzato in maniera esclusiva, occupandone tutte le risorse. La spinta verso la standardizzazione,7 che rende possibile utilizzare lo stesso software su macchine di diversi co-struttori, ha fatto sì che dei tanti possibili PC ne rimanesse uno solo: il PC derivato dall’iniziale progetto IBM, basato su processori Intel e con il siste-ma operativo Windows.

6 <http://arstechnica.com/business/2012/08/from-altair-to-ipad-35-years-of-personal-computer-market-share/4/>.

7 Il primo PC cosi come noi lo conosciamo fu prodotto da IBM. In seguito, grazie alla pubblicazione dell’architettura di progetto del PC, si sono fatti strada gli allora detti cloni, costruiti copiando alla lettera i PC IBM. Il passo successivo i è stato quello dei PC compatibili, che riproducevano le funzionalità del PC ma con un’implementazio-ne originale. Oggi con l’avanzata standardizzazione delle funzioni e dei componenti, si parla solo di PC indipendentemente da chi ne sia il produttore.

Page 6: Le città Intelligenti

778

0

500

1000

1500

2000

2500

3000

Tablet

Smartphone

PC

2. Evoluzione delle vendite annuali di PC, tablet e smartphone.8

Oltre al PC tradizionale Wintel (Windows-Intel) va menzionato il PC MAC, prodotto unicamente dalla Apple, che è riuscito a resistere nel tem-po ma per far questo si è progressivamente avvicinato, dal punto di vista hardware e software, al PC-Wintel. In questa seconda fase, tra l’altro, non sono affatto scomparsi i mainframe, perché grazie all’aumento progressivo e rapidissimo delle prestazioni dei PC, questi sono oggi in grado di svolge-re sia la funzione di mainframe, sotto il nuovo nome di PC-server, sia la funzione di terminale sotto il nome di PC-client. Ecco allora che si parla di relazione tra PC server e PC client, la quale dà origine al binomio client-server tuttora in uso, e di cui parleremo in dettaglio più avanti.

8 Grafico ottenuto mettendo insieme dati da varie fonti: Gartner, IDC, Strategic Analytics, BI Intelligence.

Page 7: Le città Intelligenti

779

Le tendenze principali nell’informatica

Fase Informatica Tipo di relazione Rapporto

Macchina-Umano

1° fase: mainframe molte persone condividono un computer 1:N

2° fase: PC un computer, una persona 1:1

diffusione di internet ... di transizione per...

3° fase: ubiquitous computing molti computer condivisi da ognuno di noi N:1

Prima di passare a descrivere la terza fase, due parole vanno spese su internet. Sul fenomeno internet si è scritto tanto e un po’ tutti abbiamo fa-miliarità con questo termine. Per i nostri scopi diciamo solo che internet ha reso palese come le reti di calcolatori possano influenzare profondamente il modo di lavorare ed interagire delle persone, e questo era proprio quanto auspicato da Weiser. Miliardi di individui sono oggi interconnessi e le loro informazioni sono condivise. La possibilità di condividere informazioni non era affatto evidente nella prima fase di internet, quando il web era read-only, cioè il flusso dei dati era monodirezionale e andava unicamente dal sito all’utente. Le cose sono cambiate con il passaggio al web read-write, che ha permesso la bi-direzionalità dei flussi. La nascita dei blog e dei social net-work ha poi ulteriormente amplificato il fenomeno e si parla adesso del social web o web 2.0. È interessante notare che proprio internet riunisce gli elementi dell’era dei mainframe (oggi PC server) e dei PC client. Infatti il personal computer può anche essere visto come un terminale evoluto, in grado di vivere anche senza la connessione al PC server. Per questa ragione nel tempo si è progressivamente affermato l’uso del termine client al posto di terminal per identificare un PC collegato ad un server, dove il server “ser-ve” i dati richiesti dal client. Internet amplifica su scala globale e massiva il paradigma del mainframe-terminale, o meglio del client-server. Il terminale quindi prima diventa PC client, e poi, grazie all’uso diffuso dei browser (Ex-plorer, Firefox, Chrome), diventa PC web-client. Il mainframe invece prima diventa PC server e infine PC web-server. Da notare che se all’inizio, nel primo passaggio, c’era pur sempre bisogno dell’ufficio IT, nel secondo pas-saggio (grazie all’avvento del cloud computing, di cui parleremo più avanti, originatosi dalla combinazione della virtualizzazione dei server e delle tec-nologie del web 2.0) non abbiamo più nemmeno bisogno di avere il nostro dipartimento IT, vale a dire che tutti possiamo disporre in modalità di ser-vizio di quanti server vogliamo per il tempo che vogliamo.

Page 8: Le città Intelligenti

780

La terza fase, quella che Weiser e Brown chiamarono del computer ubiquo, e che noi definiamo come smart computing, nasce dal risultato dell’interconnessione massiccia di informazioni personali, del business e della pubblica amministrazione. In quest’era anche il web cambierà, e si passerà al web 3.0. Il web 3.0 è ancora in divenire ma di sicuro possiamo dire che il passaggio da 2.0 a 3.0 significherà un migliore accesso alla enor-me mole di dati presente sulla rete, ottenuto potenziando significativamen-te i motori di ricerca e gli strumenti di ricerca e analisi dei dati. Questa terza onda dell’informatica che stiamo oggi vivendo, iniziata agli albori del XXI secolo, si protrarrà fin oltre il 2020. Per comodità, potremmo prende-re come punto di inizio il momento in cui le vendite di smartphone hanno superato le vendite di PC (fig. 2), cosa che è avvenuta alla fine del 2011.9 Con gli smartphone siamo sempre potenzialmente connessi ad internet e dunque siamo in grado di condividere i molteplici computer interconnessi alla rete, i quali possono essere, se opportunamente programmati, al nostro servizio. In questa terza fase ognuno di noi potrà condividere una crescen-te molteplicità di computer, dalle centinaia a cui possiamo accedere nel corso di pochi minuti di navigazione in internet, alle migliaia che avremo a disposizione non appena entreremo un po’ di più in questa fase, che è anche l’era dell’internet delle cose. Quando questa sarà al suo culmine, colloquie-remo con computer incorporati nelle pareti, nelle sedie, nei vestiti, nelle auto, nelle varie macchine intorno a noi, in altre parole in tutte le cose. L’era dei computer ubiqui o pervasivi è fondamentalmente caratterizzata dalla connessione delle cose del mondo reale con il mondo digitale del calcolo. Questo processo di interconnessione si estenderà a tutte le scale dimensionali, compresa la scala microscopica, quando (e ciò avverrà entro pochi anni) si riusciranno a costruire le nano-macchine.10 Con la realizza-zione delle nano-macchine molti settori conosceranno enormi progressi, e in particolare la medicina: farmaci mirati, nano-robot per riparare il corpo o ripulire arterie, per trovare e distruggere virus11 o per migliorare il meta-bolismo, e molto altro ancora, come la risoluzione di molte malattie neuro-degenerative.

9 <http://www.digitaltrends.com/mobile/smartphone-sales-exceed-those-of-pcs-for-first-time-apple-smashes-record/>.

10 K. gaBrieL, Engineering Microscopic Machines, «Scientific American», CCLXXIII, 3(1995), 118-121.

11 r.a. FreiTas Jr , TheFuture of Nanomedicine <http://www.wfs.org/Dec09-Jan10/frei-tas.htm>.

Page 9: Le città Intelligenti

781

L’era dell’internet delle cose e del Big-data

Abbiamo visto prima il significato di client. Oggi, a proposito di minia-turizzazione, si parla di thin client e thin server per indicare i circuiti legge-ri, piccoli ed economici che integrano un calcolatore in grado di accedere ad internet e fare sia funzione di server (che elabora e distribuisce dati in un’ottica di supervisione) che di client (che compie elaborazioni locali). È grazie a questo progresso in campo elettronico, ossia alla miniaturizzazione dei computer e al contemporaneo aumento delle prestazioni e riduzione dei costi, che possiamo oggi parlare di IoT. I nostri computer sono più po-tenti di quello usato dalla Nasa per il progetto Apollo che portò l’uomo sulla Luna, e costano poche centinaia di euro. Fra poco con meno di una decina di euro ci si potrà permettere di installare un web-server in ogni macchina industriale, attrezzatura per ufficio o elettrodomestico casalingo. Più le dimensioni ed i costi si riducono, più aumenta l’utilizzo e più l’IoT diventa realtà (fig. 3). Secondo le ultime stime, si prevede che saranno col-legati a internet, entro il 2020, tra i 20 ed i 50 miliardi di dispositivi intelli-genti interconnessi (fig. 4).

3. Miniaturizzazione moltiplicazione: tutto sta diventando intelligente.

Page 10: Le città Intelligenti

782

Da� pubblica� dalle fon� tra il 2009 ed il 2011 EricssonGoogleIntel

GMSACiscoIMSresearch

50

40

30

20

10

0

2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021

Num

ero

di d

ispo

si�v

i int

erco

nnes

si a

inte

rnet

(mili

ardi

)

4. Proiezione del numero di dispositivi connessi ad internet.

Inoltre questi dispositivi saranno proprio quelli che genereranno il traffico di dati sulla rete. Un traffico che crescerà a dismisura, da qui il termine Big-data12 per indicare questo fenomeno (fig. 5) che ci costringerà ad ideare nuove strategie e tecnologie per gestirlo. Per capire di che mole di dati si parla, notiamo che in figura 5 l’asse dei dati è espresso in exabyte (un miliardo di miliardi di byte), e si vede che già dopo il 2015 si arriverà al migliaio di exabyte all’anno, pari a uno zettabyte. Per avere una idea di cosa sia uno zettabyte, possiamo pensare all’equivalente digitale di 36.000.000 di anni di video in alta definizione o anche a 250 miliardi di DVD, che se consideriamo uno spessore di 2 mm per ogni DVD, forme-rebbero una pila così alta da coprire metà della distanza tra la terra e la luna. Oltre alla complessità di gestione della mole di dati prodotti, si pone anche il problema di dover indirizzare in modo univoco ogni oggetto in-telligente collegato alla rete, attraverso il ben noto indirizzo IP (dove IP sta per internet protocol). Il protocollo internet oggi maggiormente in uso è l’IPv4, ma non sarebbe in grado di gestire la situazione. Per questo è già stata implementata una nuova revisione del protocollo, nota con la sigla

12 IDC definisce le tecnologie Big-data come una nuova generazione di tecnologie e archi-tetture progettate per estrarre valore economico da volumi molto grandi di una vasta gamma di dati consentendone l’acquisizione ad alta velocità, la scoperta e/o analisi.

Page 11: Le città Intelligenti

783

IPv6,13 in grado di indirizzare più di un migliaio di dispositivi per ogni atomo presente sulla superficie della terra.14 Non c’è dunque di che pre-occuparsi nel caso di una futura proliferazione di nano-macchine intelli-genti, l’umanità sarà in grado di indirizzarle e dunque anche gestirle.

Non v’è dubbio che una mole di computer e di dati così enorme non può che avere un impatto sociale importante. Se analizziamo il fenomeno dal punto di vista storico ci accorgiamo che i computer avranno un impatto analogo a quello avuto da altre due grandi tecnologie del passato, il linguag-gio e la scrittura. Sia il linguaggio che la scrittura sono state grandissime innovazioni che, passando attraverso varie fasi, hanno finito per diventare onnipresenti e parte del nostro sfondo. Esse sono oramai ovunque intorno a noi, e sono tecnologie così ovvie che ci dimentichiamo del loro enorme impatto sulla nostra vita quotidiana e anche di quanto tempo ci è stato ne-cessario per padroneggiarle. Lo stesso succederà per il calcolo e i computer.

Abbiamo visto che i fattori abilitanti di questa nuova fase sono da un lato la riduzione dei costi dei microchip e l’aumento delle loro prestazioni, un trend inarrestabile esemplificato dalla celebre legge di Moore,15 e dall’al-tro la sempre maggiore diffusione di internet grazie alla disponibilità di molteplici canali di comunicazione fissa e wireless a costi sempre più con-tenuti. Oggi nei paesi occidentali è facile trovare 50 microprocessori (mi-crochip con funzione di calcolatore) in una casa media, e più di 30 in un’automobile di fascia medio alta. Sono presenti nei termostati, negli orologi, negli elettrodomestici, nei telecomandi, negli apparati audio-video, nei telefoni, in molti giocattoli e in tantissimi altri oggetti, anche se non ancora tutti dispongono di un canale di comunicazione persistente che li

13 Internet Protocol Specification Version 6, <http://www.ietf.org/rfc/rfc2460.txt>; a con-fronto con l’IPv4, il protocollo internet attualmente in uso, il vantaggio più evidente dell’IPv6 è il suo spazio di indirizzamento. L’IPv4 dispone di 32 bit per gli indirizzi ovvero il numero massimo di indirizzi e di 232 o anche 4.3×109 (4.3 miliardi cioè un numero inferiore al numero degli umani nella Terra). L’IPv6 dispone di 120 bit per gli indirizzi cioè 2120 o 1.3×1036 (1,3 peta zetta) ovvero abbastanza per il futuro a venire.

14 <http://www.edn.com/electronics-blogs/other/4306822/IPV6-How-Many-IP-Addresses-Can-Dance-on-the-Head-of-a-Pin->.

15 La potenza dei computer raddoppia ogni 18 mesi. Nel 1965 Gordon Moore, co-fon-datore di Intel, osservò che i circuiti integrati, meglio conosciuti come chip di silicio, sembravano essere conformi ad una legge prevedibile: fin dalla loro invenzione nel 1958, la densità dei transistor in ogni chip raddoppiava ogni anno. Egli ipotizzò quin-di che questo trend si sarebbe protratto nel tempo. Nel 1975 Moore stimò che il tempo di raddoppio si sarebbe attestato attorno ai 24 mesi. In termini pratici, il risul-tato è che le prestazioni del personal computer raddoppiano ogni 18 mesi e questo è avvenuto per decenni. Questa previsione è comunemente nota come legge di Moore.

Page 12: Le città Intelligenti

784

metta in relazione con il mondo esterno e dunque con i computer mobili che portiamo sempre con noi, e che fra pochissimo indosseremo come abi-ti. A tutt’oggi infatti molti oggetti dotati di computer non possono ancora essere classificati come IoT, visto che sono utilizzabili soltanto uno alla volta e non sono collegati alla rete internet. Potremo dire di essere nel pieno dell’era dell’internet delle cose quando tutti questi oggetti saranno connessi ad internet e potranno finalmente dialogare tra di loro e con noi umani. A quel punto avremo a disposizione miliardi di fonti di informazio-ne e moltissimi modi per analizzarle sia in casa che in ufficio, ma soprattut-to mentre ci muoveremo. Tra poco il forno della cucina scaricherà nuove ricette da preparare con i cibi che abbiamo in casa, il frigorifero ci infor-merà se gli alimenti sono in scadenza o se sono finiti, la bilancia colloquie-rà con gli elettrodomestici in cucina al fine di proporci i cibi più adatti alla nostra dieta; in un prossimo futuro possiamo perfino immaginare pareti di casa intelligenti con colori e superfici che si adatteranno alla situazione e pavimenti in grado di avvisarci della presenza di intrusi.

2000 2005 2010 2015

Exab

yte

/ M

ese

90

80

70

60

50

40

30

20

10

20141/5 dei video Internet

sono ora origina� da disposi�vi non-PC

2012i video Internet hanno raggiunto il 50% del traffico sulla rete.

Il numero di abitazioni che generano >1TB al mese ha raggiunto il milione

2010i video Internet hanno superato i P2P e rappresentano

il più grande traffico Internet consumer

2010Internet consumer ha superato l’internet business

2011L’area dello schermo di tu� i disposi�vi consumer

ha raggiunto i 30 cm2 per persona.Il numero di disposi�vi interconnessi ha raggiunto

il numero di abitan� del Pianeta

2015Il traffico IP totale annuale ha raggiunto la soglia dell’exabyte

Il traffico generato dai disposi�vi mobile supera il traffico generato da disposi�vi fissiIl numero dei disposi�vi interconnessi è il doppio della popolazione del Pianeta

5. La crescita esplosiva dei dati.

Ma oltre a questo che è uno scenario domestico, l’avvento dell’IoT consentirà di ampliare enormemente la capacità dell’ICT (Information and Communication Technology) di semplificare le nostre vite, andando ad

Page 13: Le città Intelligenti

785

occuparsi anche delle più piccole incombenze quotidiane e lasciandoci sempre più tempo da dedicare alle cose che per noi sono più importanti. Estendendo questo ragionamento agli ambienti urbani e alle città possiamo già immaginare quale grande aiuto ci potrà dare una rete pervasiva di computer: cartelli stradali dinamici in grado di gestire il traffico in maniera da ridurre gli ingorghi, utilizzo efficiente dei mezzi pubblici in funzione delle necessità effettive, gestione intelligente degli edifici in materia di ri-sparmio energetico e di sicurezza, e in fin dei conti risoluzione della mag-gior parte dei problemi che oggi limitano la crescita sostenibile delle città e limitano la qualità della nostra vita. L’era dell’IoT sta cambiando radical-mente anche il modo di progettare i computer. Ora che i computer stanno entrando sempre più nelle nostre vite, dovranno essere sempre più alimen-tati a batteria o avere un basso impatto sulla bolletta energetica. Di conse-guenza è diventato molto più importante che in passato il loro basso con-sumo o la durata della batteria. Dato che le prestazioni vanno parametrate al consumo, la metrica più importante è ora mips/watt, ovvero “milioni di istruzioni per secondo” per ogni watt16 richiesto. A tale proposito, Jonathan Koomey e i suoi colleghi della Stanford University hanno scoperto un’altra legge di tendenza che non riguarda le performance come la legge di Moore, ma l’efficienza energetica dei computer, e che ne descrive molto accurata-mente l’evoluzione dal 1950 ad oggi. La legge di Koomey dice che il nume-ro di calcoli per ogni joule17 di energia dissipata sta raddoppiando circa ogni 1,5 anni o anche, prendendo la formulazione originale: «dato un carico di calcoli fisso, la quantità di energia necessaria per eseguirlo si dimezza ogni 18 mesi». Un ulteriore parametro è bit/sec/m3, che misura la quantità di informazioni disponibili in un metro cubo di spazio per ogni secondo. Per quanto riguarda quest’ultimo parametro, è da notare che i limiti dati dalle leggi fisiche alle trasmissioni radio, e che potrebbero limitare l’uso perva-sivo dei computer, possono essere in parte superati da opportune architet-

16 L’ultima classifica della Green500 del 28 giugno 2013, che riporta i 500 supercompu-ter più energeticamente efficienti, ha come primo in classifica il supercomputer Au-rora Tigon della Eurotech con 3,2 GFLOP/watt. Un GFLOPS equivale ad un miliar-do di operazioni con la virgola al secondo. Un watt è la potenza richiesta per solleva-re dal tavolo e portare alla bocca una tazzina di caffè.

17 L’energia di un joule è a grandi linee l’energia richiesta per sollevare dal tavolo e portare alla bocca una mela, o per alzare una mela (100 g) di un metro (100 cm). Un watt che è un joule al secondo è la potenza richiesta se si vuole portare la mela alla bocca in un secondo. I joule ci dicono quanta energia ci serve o eroghiamo, il watt ci dice con che velocità possiamo usare o erogare quell’energia.

Page 14: Le città Intelligenti

786

ture software di trasporto dati tendenti a ridurre tutte le duplicazioni e ri-trasmissioni. Questo è un aspetto da non trascurare quando si esce dal settore dell’intelligenza domestica per entrare in un contesto di città intel-ligente, dove la quantità di dispositivi interconnessi comincia a crescere in maniera molto significativa.

Periferia e tecnologia delle calma

Prima di addentrarci a discutere dell’impatto che questo immenso pro-gresso tecnologico avrà sulla città, c’è un altro argomento che va affrontato. Si tratta del significato, dal punto di vista percettivo, dei due concetti di periferia e centro. Con la parola «periferia» definiamo quelle cose che ci stanno intorno, a cui siamo agganciati, ma delle quali non c’è bisogno di curarsi in modo esplicito.18 Un oggetto che sta alla nostra periferia è un oggetto per il quale abbiamo un’attenzione latente, ma che può essere por-tato al centro in pochissimo tempo. In altre parole, è periferia tutto quello che sta intorno a noi ma non è importante nel momento presente. Sappiamo da studi19 fatti che la mente umana gestisce in media tre variabili, e può arrivare a gestirne cinque con estrema difficoltà. Ne consegue che siamo costretti a spostare quasi tutto il mondo reale alla nostra periferia, dove ri-mane relativamente irrilevante, ma se necessario può in qualunque istante riposizionarsi al centro della nostra attenzione. È così molto importante diventare capaci di spostare facilmente oggetti dalla periferia della nostra attenzione al centro e viceversa. È questa facilità di relazionarsi dinamica-mente con molto più di cinque variabili che ci dà il senso di tranquillità a cui vuole alludere la definizione di tecnologia della calma, punto di approdo del calcolo ubiquo e pervasivo o dell’IoT, una tecnologia in grado di farci sentire tranquilli indipendentemente dal luogo dove ci troviamo.

La Città Intelligente

L’idea della Smart City o “città intelligente” nasce dunque dalla diffu-

18 J.S. BroWn, P. duguid, Keeping It Simple: Investigating Resources in the Periphery, in Bringing Design to Software, a cura di T. Winograd, New York 1996, 129-150.

19 g.s. HaLFord, r. Backer, J.e. mccredden, J.d. Bain, How many variables can hu-mans process?, «American Psychological Society» XVI, 1 (2005), 70-76.

Page 15: Le città Intelligenti

787

sione dei calcolatori, come conseguenza della progressiva miniaturizzazio-ne e riduzione di consumo e di costi, e dalla contemporanea diffusione e progressiva riduzione di costo delle connessioni dati a filo o senza filo. La pervasività dei calcolatori interconnessi, che si traduce in una grande dispo-nibilità di dati, fa emergere il desiderio di realizzare una città più integrata ed efficiente dove l’amministrazione e i vari operatori possono compiere scelte strategiche più mirate, in funzione dell’analisi dei dati storici o dispo-nibili in tempo reale. Questo a sua volta consente di fornire più servizi ai cittadini e di guidare in modo più armonioso la crescita urbana. Una città intelligente che vada incontro alle necessità della popolazione urbana deve sicuramente porre l’attenzione sulla costruzione di un ambiente sicuro, su sistemi di trasporto efficienti, sulla riduzione dell’inquinamento. Va da sé che riuscire a rispondere a queste richieste significa creare un ambiente urbano attraente e vivace, che offre una migliore qualità della vita attiran-do nuovi investimenti anche dall’estero, e ponendo le basi per lo sviluppo di una vasta gamma di attività sportive, culturali e immobiliari. Almeno cinque sono le aree di intervento che vanno indirizzate e gestite, e dove la tecnologia può essere di grande aiuto: la sicurezza urbana, la mobilità, la qualità della vita, la gestione di grandi eventi, lo sviluppo e la crescita so-stenibile. Questo non è un programma fine a sé stesso, è un percorso ine-ludibile per le città di domani. Se si considera che già oggi la metà della popolazione mondiale, composta da 7 miliardi di persone, vive nelle aree urbane, e che oltre il 70% della popolazione mondiale vivrà in città entro il 2050, quando la popolazione mondiale supererà in base alle stime attua-li i 9 miliardi di persone, si capisce come sia estremamente importante iniziare fin da subito a rendere più intelligenti le città. Anche solo il feno-meno dell’inurbamento basterebbe per far pensare alle città intelligenti; è ovvio infatti che l’aumento della concentrazione di persone pone nuove sfide alla sicurezza del cittadino, tra cui la prevenzione della criminalità, la gestione e il coordinamento inter-forze in caso di emergenze e la mitigazio-ne di calamità naturali. Molti urbanisti stanno già mettendo a punto stra-tegie complesse per gestire tutti questi servizi, utilizzando in maniera im-portante le diverse reti di comunicazione interconnesse che monitorano le funzioni principali: i servizi della città, i trasporti, l’erogazione di acqua ed energia. I più avanzati tra questi sistemi fanno uso di molti computer, anche se nella maggior parte dei casi questi operano ancora in settori verticali separati, ovvero solo per l’amministrazione comunale, per la sanità, per i trasporti o per le utilities.

Page 16: Le città Intelligenti

788

7. Visione integrate del flusso dei dati in una città intelligente.

Per creare una Smart City, questi sistemi devono essere trasformati ed interconnessi tra di loro così da lavorare come un unico sistema di sistemi che sia onnipresente e orientato al cittadino (fig. 7). L’integrazione dei si-stemi porta altri benefici, rimuovendo le barriere tra i tradizionali silos di informazioni e fornendo dati in tempo reale per le variabili che influenza-no le diverse questioni come l’inquinamento, la congestione, l’uso di ener-gia, gli interventi di emergenza e l’accesso alle cure sanitarie. Il flusso re-golare di informazioni consente ai responsabili amministrativi e politici di prendere decisioni migliori: quando i dati sono raccolti in un unico stru-mento di informazione diventa più facile tener conto di tutte le variabili rilevanti e valutare tutte le opzioni. Con la creazione di una Smart City non solo si migliorano le condizioni di vita e di lavoro ma si contribuisce soprat-tutto ad attrarre una forza lavoro creativa e qualificata, che in un mondo ad alta intensità di conoscenza è sempre di più ciò che determina il succes-so economico di una città; alcune città come Kochi, Malta, e Dubai ne sono un esempio.

Page 17: Le città Intelligenti

789

Il Cloud Computing e il ruolo dell’ICT

Questo scenario può diventare realizzabile se si è in grado in prima battuta di “misurare” i vari fenomeni, e gli smart computer ci aiutano pro-prio in questa operazione. Notiamo tra l’altro che a livello più astratto ciò è reso possibile dal progressivo ed ineludibile passaggio da un mondo ana-logico e disconnesso ad un mondo sempre più digitale ed interconnesso, che rende semplice la misurazione a distanza. Una volta raccolti i dati di misura dal campo, questi devono essere convogliati tramite la rete ad un centro di calcolo, dove i dati vengono prima memorizzati ed elaborati e poi distribuiti. Anche per questa attività il progresso tecnologico ci sta venendo incontro, permettendoci di utilizzare grosse infrastrutture centrali di calco-lo (quelle che in passato si chiamavano mainframe) senza doverle acquista-re. Grazie alla spinta verso la virtualizzazione del calcolo e dello storage con la tecnologia del cloud computing,20 oramai ogni amministrazione, an-che la più piccola, può cominciare a rendere più intelligente la sua città fornendo dati ed informazioni utili on-demand ai suoi cittadini tramite i dispositivi smart portatili e personali, di cui lo smartphone è un esempio. Se la tecnologia ha ormai quasi completamente risolto i problemi dell’hardwa-re dei dispositivi, rimane ancora in via di risoluzione l’aspetto software, cioè quello che riguarda il trattamento dei dati. Per diffondere l’approccio smart nelle città bisogna infatti anche trovare standard e pratiche condivise fra tutti i protagonisti di questa evoluzione intelligente, soprattutto nelle prime fasi di digitalizzazione e raccolta dei dati, al fine di evitare la formazione di una “Babele digitale” di dati e andare invece nella direzione dei “dati aperti”.21 È su questo punto che ci soffermeremo, approfondendo ancora una volta il senso dell’evoluzione delle tecnologie del calcolo, ma questa volta sotto l’aspetto delle tecnologie abilitanti alla trasformazione da pro-dotto a servizio. Come per avere l’elettricità non è necessario possedere

20 Il cloud computing, in italiano la “nuvola”, non è altro che una naturale evoluzione del rapporto web-client e web-server, dove ora il server non è più di proprietà ma è condiviso con tanti altri utenti e dunque non viene acquistato ma pagato a canone in funzione del suo utilizzo (tempo, transazioni, quantità di memoria, eccetera).

21 Tratto da Wikipedia: I “dati aperti”, comunemente chiamati con il termine inglese open data , sono alcune tipologie di dati liberamente accessibili a tutti, privi di bre-vetti o altre forme di controllo che ne limitino la riproduzione. L’open data si richia-ma alla più ampia disciplina dell’open government, cioè una dottrina in base alla quale la pubblica amministrazione dovrebbe essere aperta ai cittadini, tanto in termi-ni di trasparenza quanto di partecipazione diretta al processo decisionale, anche at-traverso il ricorso alle nuove tecnologie dell’ICT.

Page 18: Le città Intelligenti

790

una centrale elettrica, così per fare dei calcoli, poco o tanto complicati che siano, o per memorizzare montagne di informazioni, non è più necessario comprare computer e dischi di memoria. Queste funzioni si possono infat-ti ottenere on-demand e in modalità as-a-service pagando solo per quello che si usa. Per arrivare a questo risultato, che solo dieci anni fa sembrava un miraggio anche se il concetto risale al 1960,22 si è passati per fasi succes-sive di standardizzazioni e gerarchizzazioni, prima dell’hardware e poi sempre più del software. D’altra parte, quando la complessità di un sistema cresce l’unica maniera per dominarla è suddividere il sistema in sottosiste-mi o moduli funzionali che si agganciano gli uni agli altri tramite pochissi-mi punti di interazione (pensiamo alla standardizzazione delle componen-ti in meccanica, idraulica ed elettromeccanica).23 Fin qui tutto appare abba-stanza comprensibile, ma la domanda che sorge è: qual è la strategia mi-gliore per suddividere in moduli un sistema complesso come una rete ete-rogenea di computer e di dati, è preferibile un approccio verticale oppure orizzontale? Il cloud computing ha una suddivisione orizzontale (fig. 8a) delle componenti, che in via generale sono tre: l’infrastruttura harware con i computer e i dispositivi di rete, che nella terminologia as-a-service ha l’acronimo IaaS (Infrastructure as a Service), poi un secondo strato detto piattaforma o PaaS (Platform as a Service), che oltre a dialogare con l’in-frastruttura contiene tutta una serie di funzioni che semplificano lo svilup-po del software applicativo specifico, e per ultimo lo strato del software applicativo, noto con l’acronimo SaaS (Software as a Service).

22 John McCarthy (1927-2011) è stato il primo nel 1961 a suggerire pubblicamente (in un discorso tenuto per celebrare il centenario del MIT) che la tecnologia del compu-ter time-sharing potrebbe comportare che in futuro le applicazioni e la potenza di calcolo possano essere vendute attraverso il modello di business delle utility (come l’acqua o l’elettricità).

23 H.A. simon, The Architecture of Complexity, «Proceedings of the American Philoso-phical Society» CVI, 6. (1962), 467-482.

Page 19: Le città Intelligenti

791

Cloud ClientsWeb browser, Mobile app, Thin client, Terminal

emulator

PaaSExecu�on run�me, database, web browser,

tool di sviluppo

IaaSVirtual Computers, Server, Storage, Bilanciatori di

carico, Re�

SaaSCRM, Email, Virtual desktop, Games,

Comunicazioni

Webbrowser

Mobileapp

Terminal emulator

Thinclient

SaaS

PaaS

IaaS

(a) (b)

8a-b. Architettura a strati logico/funzionali del Cloud logica (a) e per numerosità di oggetti su ogni strato (b).

Questi tre strati si possono rappresentare anche con un triangolo ro-vesciato (fig. 8b), infatti la tecnologia del cloud, basandosi sull’idea di ser-vizio, tende ad utilizzare le risorse hardware nel modo migliore, riducendo gli sprechi e rendendone efficiente l’utilizzo, quindi richiedendo meno hardware e meno energia per fare le stesse cose. Alla base del triangolo rovesciato si trova la IaaS (calcolatori, dischi, apparati di comunicazione, apparati di alimentazione), e su ognuno di questi computer “fisici” molto potenti vengono creati molti computer “virtuali”, che sono programmi eseguiti sui computer fisici. Se i canali di comunicazione sono abbastanza capienti (di qui l’importanza della banda larga), i computer fisici possono risiedere negli angoli più remoti del pianeta. Sull’hardware virtuale stanno poi appoggiate un certo numero di piattaforme software, in funzione della tipologia di servizi richiesti (piattaforme per la gestione dei clienti, della produzione, della lettura dati dai contatori, per la localizzazione e la geo-referenziazione e molte altre). L’ultimo strato è quello delle applicazioni software, ed è quello più ampio, in cui l’immaginazione si può sbizzarrire. Un’analogia dei tre strati del cloud nel mondo reale potrebbe essere la seguente: una casa per essere costruita ha bisogno di un appezzamento di terreno; i terreni da costruzione sono di solito lottizzati e dotati delle infra-strutture per poter accedere a tutti i principali servizi quali acqua luce, gas, fognatura, telefono, eccetera. Un’area lottizzata potrebbe essere vista come l’analogo dell’IaaS. Se poi immaginiamo di disporre attorno ai terreni lot-tizzati tutti i diversi materiali che servono per costruire una casa (mattoni, colonne, architravi, pareti, finestre, porte, piastrelle, termosifoni, sanitari

Page 20: Le città Intelligenti

792

eccetera), indipendentemente dal progetto finale e prima che il progetto finale venga realizzato, così da avere tutto sottomano durate il successivo processo di costruzione, ecco che abbiamo realizzato l’analogo della PaaS. Sappiamo che ci possono essere più PaaS: l’analogo in edilizia potrebbe essere la presenza di lotti con attorno il materiale per costruire case a un piano, case a due piani, condomini, grattacieli, impianti sportivi e così via. L’analogo della SaaS, ovvero dell’applicazione as-a-service, nel nostro esempio è la costruzione finita. La cosa interessante è che se nel modo degli atomi è irrealistico poter disporre di una piattaforma di costruzione in ogni lotto con tutte le possibili tipologie, visto lo spreco enorme di ma-teriale e di spazio, nel modo digitale questo invece è possibile, perché non comporta né costi inutili né sprechi, anzi, nel caso del cloud computing le componenti sono condivise tra molti utilizzatori fin dall’origine. È da que-sta intrinseca condivisione delle risorse che nasce la possibilità di fornire tutto in modalità di servizio e dunque senza la necessità di comperare al-cunché a priori. Anche le applicazioni SaaS vengono poi fruite da remoto in modalità as-a-service da qualunque dispositivo che abbia ad esempio un web browser.

La sostenibilità e il ruolo delle tecnologie dell’informazione

aienza collettiva e un più elevato livello di socializzazione tra gli uma-ni. La tecnologia che resiste è quella che riesce a garantire una maggiore universalità d’uso, quella che riesce a bilanciare la necessità di creare stan-dard, protocolli e modelli evolutivi a supporto del suo sviluppo, contenen-done la crescente complessità, con la libertà, la creatività, la capacità di innovazione degli utilizzatori. Man mano che appariva evidente la radicale trasformazione che internet avrebbe portato, in tanti hanno lavorato per garantire trasparenza, apertura e condivisione. Attraverso la formulazione di linguaggi sempre più comuni e aperti internet sta diventando sempre più sociale ed “etica”. È proprio grazie a questa trasformazione che coinvolge tutto il comparto dell’ICT che si sta delineando una nuova radicale trasfor-mazione del nostro concetto sia di città che di società. Disponiamo di tec-nologie digitali con enormi potenzialità di innovazione, a cui nei prossimi anni accederanno miliardi di persone e alle quali già da ora sono virtual-mente collegati miliardi di dispositivi. In più ci sono nuove aree del mondo che conoscono uno sviluppo vertiginoso e incontrollabile proprio nel mo-mento in cui le sfide poste dal cambiamento climatico, dalla questione energetica, dalla crisi economica impongono la ricerca di soluzioni alterna-

Page 21: Le città Intelligenti

793

tive, sostenibili economicamente e su scala globale. Grazie ai progressi dell’ICT le città e le comunità possono trasformarsi diventando il motore di un nuovo sviluppo socio-economico sostenibile. Negli ultimi anni, il tema Smart City è stato ampiamente sollevato in tutto il mondo e alcuni tentati-vi pilota di avvio di percorsi smart sono stati intrapresi in qualche città. Non si è però ancora imboccata una strada comune, basata su un concetto con-diviso di cosa renda una città più intelligente e sostenibile, e non si è svi-luppata una capacità di replicazione su larga scala delle best practice e dei progetti di riconosciuto valore. Ciò è avvenuto principalmente per un mo-tivo: i diversi attori coinvolti ancora oggi “non parlano la stessa lingua”. Non esistono modelli, pratiche operative, standard tecnici condivisi e solu-zioni specifiche cui fare riferimento; scarseggiano strumenti quali piattafor-me per la raccolta e la distribuzione dei dati che aiutino le amministrazioni, le imprese, i cittadini, i fornitori di servizi e di reti a collaborare per dare forma alle comunità del futuro in modo aperto, trasparente e collaborativo. Nonostante ciò i dati si possono già raccogliere, ma vanno raccolti in ma-niera che siano interoperabili e riutilizzabili anche in futuro. Per fare questo è necessario realizzare una piattaforma che disaccoppi i produttori di dati dagli utilizzatori di dati,24 in altre parole “disintermediando” i sensori intel-ligenti (smart computer) che producono i dati dalle applicazioni che li usano o li potranno usare. L’idea è di trovare un nuovo modo per realizza-re sistemi interconnessi che possano espandersi in numero e nello spazio senza dover riscrivere i software di acquisizione e controllo o modificare il metodo di archiviazione dei dati. Inoltre i dati dovrebbero essere raccolti nella maniera più grezza possibile, per salvaguardare l’integrità dell’infor-mazione originaria.

I pattern tecnologici si ripetono ma ogni volta migliorandosi

Guardando alla storia del progresso tecnologico, vediamo che questo è fatto di un continuo formarsi e ripetersi di pattern molto simili (termina-le-mainframe, client-server, web-client-web-server) che però ad ogni ripeter-si tendono a diventare, grazie alla progressiva virtualizzazione e smateria-

24 Un esempio di piattaforma di questo tipo è il prodotto EDC di Eurotech che nasce con lo scopo di semplificare il modo di raccogliere grandi moli di dati dal campo. Per maggiori dettagli si rimanda a: <http://www.eurotech.com/dla/white_papers/Euro-tech_reinvents_embedded_connected_computing_for_M2M.pdf> <http://www.euro-tech.com/en/products/software+services/everyware+device+cloud/edc+what+it+is>

Page 22: Le città Intelligenti

794

lizzazione, sempre più globali e accessibili ad uno strato sempre più ampio di popolazione (fig. 9). L’evoluzione dal mainframe al PC per poi passare allo smart computer ubiquo e pervasivo, pur perpetuando il paradigma client-server, in realtà ha portato a incredibili passi avanti in quanto a so-stenibilità e democratizzazione, e le smart cities ne sono una eccellente di-mostrazione.

9. Dal Mainframe al Cloud.

In questa visione non ci sono più differenze tra computer usati da un umano o usati da altri computer, né tra i dati provenienti da un sensore di temperatura, da un sensore di CO2 o da qualunque altro dispositivo smart. È l’utilizzo che se ne farà che ne farà emergere la differenza. È l’internet delle cose, dove umani e macchine collaborano e cooperano per costruire un mondo migliore.