Archivio

Posts Tagged ‘web mapping’

Quattro milioni di verbali (open …) su una mappa


Tra i vari canali social che seguo ho trovato in questi giorni questo bel riferimento, il progetto Infrazioni  ….

infrazioni

… che usando dati i open delle infrazioni stradali della città di Torino ha realizzato una bella web gis application interattiva con cui si possono visualizzare ed interrogare i dati (potete divertirvi a cercare i luoghi, e i periodi, ove si registrano il maggiore o minore numero di infrazioni per tipologia ….diciamo che chi è di Torino intuisce rapidamente la natura dei due grossi cerchi in alto a sinistra ed in basso a destra della mappa …. 🙂 ).

Al netto dell’interfaccia  (realizzata con MapBox …), che è sicuramente curata, con buone prestazioni e di facile utilizzo, il grosso valore aggiunto è il riuso di dati aperti messi a disposizione da parte di una P.A., rappresentando una bella sinergia, un approccio “win-win” che sempre di più si spera di vedere.

I dati delle infrazioni infatti sono disponibili open data sul portale degli open data del Comune di Torino (e disponibili per più anni, dal 2011 al 2015 …), ma questo non è l’unico dataset utilizzato, in quanto i dati sono stati relazionati sul territorio utilizzando i dati della toponomastica comunale, anch’essi disponibili sul medesimo portale (a tale proposito, come elemento di miglioramento, si potrebbe suggerire al Comune di Torino di integrare già dalla fonte, vale a dire dalle generazione del dato delle infrazioni, la relazione spaziale, diretta o indiretta, con ìl numero civico o l’incrocio corrispondente usando la propria toponomatica al fine di rendere  così i dati relazionati strettamente ed in modo tra loro coerente. Credo che questo avrebbe fatto risparmiare parecchio tempo ai realizzatori del progetto …. se poi proprio volessimo esagerare, avere i medesimi dati disponibili come open services …. male non farebbe …).

E’ comunque un esempio “virtuoso” di collaborazione tra P.A e “privati /cittadini” che vale la pena di segnalare ed applaudire …. bravi tutti!

Apple WWDC 2012: novità anche sul fronte mappe


Durante il WWDC 2012, tra le altre novità, Apple ha presentato ufficialmente la sua soluzione di mapping per il mobile

La parte relativa alle mappe inizia intorno al minuto 98.30.

Fonte: Apple

Apple vs Google nel mondo del mapping: ci siamo …


Già in due precedenti post (qui e qui) avevo anticipato che Apple si stava dotando di una propria soluzione di web mapping allo scopo di eliminare la dipendenza attuale dalle Google Maps.

Il rilascio di IOS 6 Maps è previsto per quest’estate ma iniziano ad apparire le prime indiscrezioni e immagini.

Nel seguente post, apparso su BGR, sono riportate alcune caratteristiche della nuova soluzione corredate da alcune immagini in anteprima.

E Big G che fa? Resta alla finestra?  Non sembra, anzi cerca di passare al contrattacco visto che per il 6 di Giugno, quindi la prossima settimana, ha indetto, direttamente da  Brian McClendon, Vice President of Google Maps and Google Earth, un incontro con la stampa specializzata con il seguente obiettivo: “…. Will give you a behind-the-scenes look at Google Maps and share our vision. We’ll also demo some of the newest technology and provide a sneak peek at upcoming features that will help people get where they want to go – both physically and virtually.”

Ci dobbiamo quindi attendere un po di novità sia da parte di un nuovo attore (e di che peso !), che entra nel mondo del mapping sia da parte di colui che cerca di mantere quello che è stato sinora un primato, situazione che dovrebbe portare ad un continua rincorsa tra i due contendenti.

Fonte: Spatially Adjusted

AGGIORNAMENTO 03/06/2012

Ecco un nuovo video che illustra le caratteristiche  di IOS6 Map

Per i siti web dell’Unione Europea viene raccomandato l’utilizzo di Open StreetMap


Nel weekly summary su OSM di questa settimana, tra le varie notize riportate, mi ha colpito quella in cui per i siti dell’Unione Europea viene suggerito l’utilizzo di Open StreetMap.

L’annuncio è stato dato sull’Information Providers Guide il cui scopo (riporto direttamente dal sito … ) è ” ……The INFORMATION PROVIDERS GUIDE is for everyone who develops and publishes material on EU websites, including webmasters, editors, content providers, web developers and contractors. The guide covers all aspects of publishing on the EUROPA site, describing the relevant editorial, technical and presentation standards in force.
The rules set out in the IPG are compulsory in order to ensure a coherent and user-friendly service to the users. The IPG is freely available on EUROPA in English, and is a living document which is regularly updated.

L’artcolo non si limita a riportare solo una raccomandazione ma fornisce anche uno strumento, di libero utilizzo, che permette di costruirsi, con un semplice wizard basato su OpenLayers, gli snippet di codice che caratterizzeranno la mappa costruita dall’utente.

Nulla di così innovativo se si vuole, in quanto esistono diverse soluzioni di questo tipo anche più evolute, ma direi che in questo caso l’inziativa è degna di nota anche per la sua semplicità di utilizzo che permette di utilizzare semplici tecniche di web mapping anche a chi non ha conoscenza tecniche approfondite o che non ha concetti legati al mondo dell’informazione geografica così evoluti.

A livello tecnico le componenti software utilizzate sono:

Ecco l’elenco degli esempi

ed ecco un esempio di reale utilizzo

Fonte: OpenGeoData

Il geo-post di Natale


Ci siamo …..  è Natale!!!! Approfitto di questo post per fare gli auguri a tutti coloro che seguono questo blog, spero per trovare idee interessanti tra le cose che cerco di raccogliere, ma anche a tutti coloro che possono esserci capitati e ci capiteranno su per caso magari anche in questi giorni di festa.

Non si può “regalare” nulla da un blog se non parole, idee, opinioni con le quali, tra l’altro, non è detto che si debba essere tutti d’accordo, anche se lo scambio accresce un po’ tutti coloro che vi partecipano, e quindi come ideale “regalo di Natale” mi permetto di citare un avvenimento che mi è capitato qualche tempo fa legato a questo blog e al tema del mapping di “eventi”.

Si tratta di un progetto che si chiama “Mapping Kisses” che si prefigge come obiettivo quello di creare una mappa del mondo in cui si possono “taggare” i luoghi in cui ci si ricorda di aver baciato qualcuno.

Sono anni che mi occupo di GIS, web mapping, georeferenziazione, ecc … ma questa è una delle inziative e un esempio di applicazione tra le più “strane”  in cui mi sia capitato di imbattermi, ma al tempo stesso mi ha incurisoito quando la sua autrice, una studentessa italiana che vive a Londra, mi ha contattato per alcuni suggerimenti (per i dettagli ecco un’intervista con l’autrice).

Questa volta il post non parla di tecnologia, di strumenti, di piattaforme, di progetti, ecc … ma vuole dare una emozione leggera, in linea con il clima natalizio e magari, perchè no, fornire un’idea, quella di mappare il luogo dove quest’anno a Natale darete un bacio a tutti coloro a cui volete bene, genitori, amici, mogli, mariti, figli, ecc …

Tanti cari auguri di Buone Feste, Buon 2012 e un abbraccio a tutti !!!!!

Cesare

FOSS4G 2011: alcune note


Dal 12 al 16 Settembre a Denver si è svolto il FOSS4G 2011, la principale conferenza mondiale sul Free and Open Source Software for GIS.

Mentre lo scorso anno sono riuscito a partecipare, visto che la conferenza si è tenuta a Barcellona, quest’anno gli elementi salienti di questo evento ho cercato di raccoglierli dai post e articoli di coloro che vi hanno partecipato direttamente.

Ovviamente vi saranno delle lacune e magari anche delle possibili imprecisioni, ma credo che i trend di dove sta andando, o almeno indirizzando, l mondo open source GIS sia possibile ricavarlo.

INTRODUZIONE
La conferenza ha visto partecipare 900 persone metà delle quali provenienti dagli USA, circa 150 Europei e il Giappone come unico paese asiatico rappresentato (forse è questa la ragione per cui il prossimo anno la conferenza di terrà a Pechino?)

Il chairman della conferenza è stato Peter Batty, entrato di recente nel board di OSGeo, e che prima ha ricoperto il ruolo di CTO in due grossi attori commerciali del mondo GIS, Intergraph e GE Smallworld.

Batty ha esortato a mantenere la conferenza fedele alle proprie origini quindi maggiormente concentrata sugli aspetti tecnologici e meno sugli aspetti commerciali o di “marketing / vendita” (anche se poi, come trattato in seguito, si è ampiamente discusso di modelli di business applicati o da applicare al mondo open source).

Dal suo punto di vista lui ha dichiarato che non vede significative differenze in termini di costi tra software proprietario e software open source: occorre bilanciare, infatti, tutta una serie di aspetti, che vanno dai costi di licenza / manutenzione vs i costi di sviluppo, i costi e il livello del supporto (spesso più efficace nel mondo open source), ecc … ..

Anche lui come sempre più spesso viene proposto (vedi note ESRI UC 2011), suggerisce un approccio “misto” di tecnologie commerciali e open source cercando di andare a cogliere il meglio che i due mondo possono offrire per raggiungere gli obiettivi di progetto.

Lo stesso è stato sostenuto da Dale Lutz che ha portato l’esperienza di come un’azienda commerciale come Safe Software leader di mercato nel mondo degli ETL Spaziali faccia uno di un mix di prodotti propri e della comunità open source per perseguire i propri obiettivi e mantenere la posizione di mercato raggiunta, con particolare attenzione nel loro caso ai license agreement da rispettare nel momento in cui Safe vende i propri prodotti.

ASPETTI GENERALI

Modelli di business— Sembra che al di fuori degli aspetti tecnici uno degli argomenti maggiormente dibattuti siano stati i modelli di business. Paul Ramsey ha dedicato l’intera sua presentazione a questo argomento e ha sostenuto che l’open source NON è un modello di business bensì una tattica d business, un modello di far software e di distribuirlo abilitato da modelli di licenza particolari.

Conferenza FOSS4G o Conferenza OSGeo?— Sembra che si sia dibattuto se continuare a promuove l’organizzazione OSGeo o la conferenza FOSS4G. Entrambe infatti hanno assunto notorietà ma si avverte un po’ di confusione legata al fatto che gli obiettivi di entrambi sono simile sovrapposti, promuovere il software GIS open source come valida alternativa ai prodotti commerciali. Potrebbero quindi esserci anche novità in merito (prevale uno dei due sull’altro? Nuovi brand? Vedremo).

ASPETTI TECNICI

Mapnik — Sembra che ogni sessione di presentazione avesse un qualche componente di Mapnik coinvolto. Questo strumento sta diventando una sorta di “must” nel panorama degli engine cartografici del mondo GIS, quindi sembra che Mapnik sia la scelta inevitabile per chiunque desideri produrre mappe di qualità nel mondo open source.

Map Tiling— Al netto delle soluzioni per implementare il concetto sembra essere stato un aspetto ampiamente condiviso. Le nuove tendenze vanno ora nella direzione di gestire i map tiles direttamente in un database ad esempio con soluzioni che vedono coinvolte SQLite e MapProxy. Anche Apache ha presentato sull’argomento un modulo chiamato MapCache con un benchmark e la sua possibilità di integrazione nello stack di MapServer. Una soluzione interessante è quella proposta da NodejsMapnik (ebbene si, ancora lui), che si presenta come una soluzione di sviluppo javascript server-side particolarmente interessante per architetture SOA. Perle necessità di autenticazione rendering distribuito, styling e tiles in un ambiente server non-monolitico questa sembra essere una buona soluzione. L’unico punto debole, non secondario però, è il diverso grado di maturità e stabilità delle due componenti della soluzione, Mapnik sicuramente più stabile rispetto a Nodejs che sta evolvendo molto più rapidamente.

GeoNetwork— E’ stata presentata la versione 2.8 di GeoNetwork la cui caratteristica saliente è di separare la componente client da quella server, oltre a migliorare la parte di editor di metadati. Sarà resa disponibile anche la possibilità di caricare shapefile on-the-fly come layer (sarebbe interessante vedere la funzionalità in azione e quali siano i limiti imposti sulla dimensione dello shapefile, per verificare quanto sia effettivamente utilizzabile questa funzionalità in casi d’uso reali).

PostGIS — Nel corso della conferenza è stato annunciato PostGIS 2.0 che arriverà nel corso del 2012. Già oggi l’estensione spaziale di PostgreSQL è ampiamente presente ed utilizzata nelle soluzioni presentate e con l’avvento delle novità che saranno rese disponibili dalla prossima release (ad esempio il nuovo supporto dei dati raster, supporto del 3D, nuove funzionalità per lo snapping o lo slipping delle geometrie, modelli topologici, ecc .. (presentazione di Regina Obe e Leo Hsu), PostGIS non avrà praticamente alternative come soluzioni di data base open source anche per la componente spaziale dei dati. In ogni caso inizia a passare il messaggio che, indipendentemente dal data base utilizzato, spostare logiche elaborative e di business dal GIS desktop verso il database (e in generale, server side con esposizione di servizi), aiuta a “liberare” le potenzialità della tecnologia GIS ampliandone l’utilizzo e favorendone il riuso. Sempre in ambito PostGIS una delle presentazioni di maggiore interesse sembra essere stata quella relativa alle soluzioni offerte da PostGIS per la replica dei dati. Questa funzionalità si basa completamente su quello che, sulla stessa tematica può offrire PostgreSQL 9.0 e precisamente la streaming replication, adatta per repliche di una intera istanza (come nel caso di high availability),e la table-based replication disponibile attraverso pacchetti terzi quali Slony e Skytools.

QGISQGIS come soluzione GIS Desktop viene usato praticamente da chiunque e rappresenta la principale scelta in questo campo. Anche altre soluzioni come gvSIG o uDIG mantengono un discreto ambito di utilizzo ma QGIS sta rapidamente guadagnando ampie fette di utenza. Combinando QGIS e Mapnik si possono creare cartografie di qualità altrimenti non così facilmente ottenibili.

JavaScript vs Flex / Silverlight — Ovviamente in un contesto di una conferenza open source no sorprende ma in questi contesti c’è uno scarso utilizzo di utenti Flex / Silverlight a fronte di un mappa base di utenza che fa affidamenti a Javascript (evoluto) / HTML 5. Da questo punto di vista le soluzioni basate su Flex / Silverlight vengono viste come soluzioni legacy.

Front End — Storicamente le interfacce grafiche dei prodotti GIS (sia web gis sia dekstop) hanno sempre peccato di una scarsa qualità delle componenti di front end sino ad arrivare a livelli di inutilizzabilità da parte di utenti ordinari e non tecnici. Questo perché, spesso, sono state pensate e realizzate da tecnici per tecnici. Lo dimostra per certi versi l’entrata in campo anni fa di un attore “pesante” ma estraneo a questo mondo come Google, che ha portato modelli e paradigmi completamente nuovi o oramai standard de facto adottati e di riferimento anche per gli operatori tradizionali del mondo GIS. Anche il fronte open source non è esente da queste considerazioni se si pensa alle interfacce di molte soluzioni FOSSG. Qualcosa sembra che si stia muovendo anche su questo fronte: i riferimenti sono Vizzuality e Development Seed

Cloud & Mobile — Cloud e Mobile sono due trend del mondo IT che interessano fortemente in modo GIS sia sul fronte commerciale sia quello open source. L’open source gis è di particolare attrazione per quelle aziende che sviluppano applicazioni cloud-based in quanto i tradizionali modelli di licensing possono essere economicamente molto onerosi quando si abbiamo necessità di scalabilità su diversi server.

Open Data — anche il trend degli open data interessano fortemente in modo GIS sia sul fronte commerciale sia quello open source sicuramente più il secondo vista la stretta vicinanza di concetti.

WFS — interessante presentazione che ha cercato di confrontare il WFS-Transactional con geoJSON utile per comprendere l’implementazione e le performance di questo standard con GeoServer / MapFish. Sono emerse aspetti sia sul formato GMS sia sulla mancanza di adeguata documentazione e la carenza di fruitori compliant sul mercato

GeoScript — il prodotto GeoScript di presenta come una libreria di geoprocessing basata su GeoTools utilizzabile in diversi ambienti di scripting (Javascript, Python, Scala e Grovy)

WPS — il protocollo sembra oramai aver raggiunto il livello di maturità stabilità da poter essere utilizzato in casi progettuali reali. E’ stata fatta una interessante presentazione in cui sono state comparate diverse soluzioni quali PyWPS, degree, 52 North, Zoo-Project, GeoServer, Constallation.

OpenLayers — è stata presentata in anteprima (nota: ad oggi ufficiale), la versione 2.11 di OpenLayers. Le principali novità riguardano la disponibilità i versione definitiva del supporto per il mobile già disponibli in beta dopo il Code Sprint di Losanna di qualche mese fa (vedi post precedenti).

ASPETTI LEGATI AI PROGETTI

National Broadband Map — Il progetto National Broadband Map è noto da mesi ed è stato realizzato dalla Federal Communication Commission (FCC). Rappresenta il più significativo esempio di quanto le tecnologie FOSS nel campo GIS siano oramai mature per progetti anche di grosse dimensioni e livelli di carico. La pila tecnologica utilizzata nel progetto è completamente basata su software open e nel primo giorno di pubblicazione sul web dell’applicazione ha ricevuto 158.123.884 contatti (!!!!!). Ma la cosa più importate che è emersa dalla presentazione si Michael Byrne che l’FCC è arrivata a questa scelta dopo una serie di benchmark attraverso prototipi che i hanno via via rassicurati che la scelta di andare verso l’open source era la corretta direzione in quanto nelle prove questo era quello che emergeva in termini di velocità, flessibilità e aspettative di traffico.

Open Street Map — Nell’ambito delle presentazioni fatte su OSM e il suo utilizzo nei progetti è emersa una interessante applicazione che permette di fare una verifica degli indirizzi tramite un’applicazione mobile. E’ stato anche ipotizzato l’utilizzo di OSM come data transfer catalyzer, nell’ambito della diffusione di INSPIRE. L’idea è che quando le amministrazioni nazionali e locali dovranno i loro dati nella infrastruttura geospaziale INSPIRE, queste potrebbero importare i propri dati nell’infrastruttura OSM poi trasformarli ed estrarli da SOM secondo le specifiche INSPIRE (mi sembra, viste le problematiche che già esistono all’implementazione operativa di INSPIRE un aspetto piuttosto futuristico anche se affascinante per certi versi)

Quebec Public Safety Ministry — il progetto utilizza uno stack applicativo completamente open source basato su MapServer, TileCache, PostGIS, GeoExt e OpenLayers utilizzato in una web application denominata G.O.LOC e per rendere disponibili web map services destinati al supporto del centro di emergenza 9-1-1. Un altro esempio del livello di maturità raggiunto dalla tecnologia FOSS4G.

CONCLUSIONI

Per quanto la conferenza sia nata e prosegua su un filone tecnologico, iniziano a trattarsi anche modelli di business in quanto le realtà produttive che non siano gli attori medio – grandi presenti alla conferenza stessa, devono trovare modalità di sostegno economico per le loro attività e per proporre i loro prodotti / soluzioni / servizi.

Sembra che non ci sia una crescita in termini numerici di questi attori che riescano a fare business basandosi e offendo prodotti open source legati al mondo GIS. L’evidenza sembra sia emersa proprio dal piccolo numero di esibitori alla conferenza, messa ancora più in evidenza se non si contano in questo numero i grossi attori quali ESRI Safe Software, MapQuest e DigitalGlobe, queste ultime due localizzate a Denver.

Arnulf Christ, presidente di OSGeo, ammette che non è così facile o forse loro non sono stati così bravi a cercare di dimostrare i ritorni dell’investimento in open source. Per OSGeo la presenza di Peter Batty, sfruttando la sua esperienza fatta in realtà commerciali del mondo GIS può aiutare a sbloccare la situazione.

Infine la location per il FOSS4G 2012: Pechino!!!!

Fonti:
The guide to what was important at FOSS4G for people who didn’t go to FOSS4G 2011http://www.spatiallyadjusted.com
Sito della conferenza FOSS4G 2011
Elenco presentazioni FOSS4G 2011
The guide to what was important at FOSS4G fro people who didn’t go to FOSS4G 2011 – Spatially Adjusted
What to expect at FOSS4G 2011 – DirectionsMag
OpenGeo – FOSS4G day #0 – blog.opengeo.org
OpenGeo – FOSS4G day #1 – blog.opengeo.org
OpenGeo – FOSS4G day #2 – blog.opengeo.org
OpenGeo – FOSS4G day #3 – blog.opengeo.org
OpenGeo – FOSS4G day #4 – blog.opengeo.org
OpenGeo – FOSS4G day #5 – blog.opengeo.org
FOSS4G 2011: tiles, geonetwork, arcgis, geoscript, emergency apps and more … – slashgeo.org
FOSS4G 2011: Opening Plenary Session – apb.directionsmag.com
FOSS4G 2011: Opendata, OpenLayers, Mobile, Nodejs-Mapnik.OpenAerialMap
– slashgeo.org
FOSS4G 2011: Where Code Swaps Mix with Business; Well not taht much business – apb.directionsmag.com
The Free and Open Source Software for GeoSpatial (FOSS4G) Conference Wrap Up – DirectionsMag

Note sull’accuratezza di Google Maps

2 ottobre 2011 3 commenti

Sul sito www.gisetelerilevamento.com ho letto un interessante articolo che tratta dell’accuratezza di Google Maps che mi sento di consigliare come lettura per chi interessato questi argomenti.

Tutti, infatti, usiamo, chi più chi meno, le mappe offerte da Google, ma pochi di noi, se non nessuno, si cura della loro precisione o accuratezza.

Quest’approccio va bene se l’uso delle mappe è di tipo generalistico, meno se l’utilizzo è di tipo diverso, più specialistico o tecnico, in cui le questioni su precisione e accuratezza non sono aspetti secondari.

Come cita correttamente l’articolo le “imprecisioni”, o meglio “l’incoerenza”, delle informazioni spaziali offerte da Google sono già evidenti usando le stesse informazioni spaziali disponibili in Google Maps: provando infatti a sovrapporre alla vista “satellite” le strade si possono notare disallineamenti tra la strada visualizzata dall’immagine raster rispetto alla stessa strada offerta dal layer vettoriale. Quale delle due è quella “corretta”? L’articolo cita quella vettoriale perché si tratta di un’informazione offerta a Google da aziende terze che sono le stesse che producono le mappe per la navigazione satellitare.

Non è che l’informazione della vista satellite non sia corretta, è solo che questa presenta della deformazioni radiometriche e geometriche dovute a vari fattori, che possono essere corretti o ridotti ma non eliminati del tutto.

Assodato questo, occorre sempre poi quantificare e l’articolo riporta una misurazione effettuata da un gruppo di ricercatori dell’Università di Pavia. Lascio i dettagli alla lettura dell’articolo, riporto qui sono i numeri: la zona presa in esame è quella di Pavia e le misurazioni fatte hanno rilevato un errore sistematico di 16 metri verso est e di -1.6 metri verso nord.

Questo non sminuisce il valore e l’importanza della diffusione di Google Maps e i suoi parenti stretti quali Google Earth, Street View, ecc .. che grosso contributo hanno dato, continuano e continueranno a dare alla diffusione dell’informazione geografici (dati e funzioni), facendola uscire da un mondo di nicchia (cosa che gli attori classici di questo mondo non sono stati in grado di fare negli anni allo stesso modo e con lo stesso risultato), ma al tempo stesso mette un punto di attenzione sull’utilizzo di queste informazioni al di fuori di una finalità generalistica.

Estremizzando quindi non si può quindi pensare che, essendoci le mappe di Google i dati spaziali “certificati” non servano più o non le si debba mantenere, aggiornare e arricchire, perché spesso queste sono di qualità “migliore” rispetto a quelle generaliste. Mantenendo l’esempio dell’immagine della vista “satellite” di cui sopra, una ortotofo realizzata da una P.A ha una qualità uniformemente distribuita su tutto il suo territorio di competenza quindi anche nelle aree extraurbane. Ad esempio le aree dei capoluoghi o di alcune aree di interesse (es. aree olimpiche 2006 in Piemonte, la mia regione), generalmente hanno una buona qualità, ma, avete provato ad andare in zone più periferiche o di campagna? Ovviamente da un punto di vista di Google, la qualità decade.

Ovviamente poi si entra nella discussione per cui le mappe di Google sono “disponibili” mentre quelle della P.A “lo sono meno”, ma questo esula del presente post ce ne vorrebbe un altro che tratti OpenData, licenze d’uso, ecc ….

L’articolo da cui sono partito si chiude poi con alcune considerazioni, che condivido, sul fatto che Google Maps possa essere considerato o meno un WebGIS  (ammesso e non concesso che si riesca a definire in modo univoco di WebGIS ……). Anche qui rimando per i dettagli all’articolo qui cito solo una frase “….. Personalmente non credo che Google Map si possa considerare un GIS. Ritengo che sia più opportuno definirla una “mappa” per quanto evoluta possa essere. Un WebGIS dovrebbe essere in grado di realizzare analisi spaziali più o meno complesse e questo Google Maps non consente di farlo se non con la scrittura di codice ad hoc. ….. “. Aggiungerei, a livello personale, che anche con la scrittura di codice ad hoc attraverso le API fornite risulta difficile ottenere un WebGIS (di nuovo …. ammesso e non concesso che si riesca a definire in modo univoco di WebGIS ……), ma semmai una soluzione di Web Mapping decisamente evoluta.

Fonte: GIS & TLR

Un altro interessante esempio di crowdsourcing georiferito: FixMyTransport.con (beta)

13 settembre 2011 Lascia un commento

Recentemente mi sono imbattuto su un interessante post relativo ad un progetto di crowdsourcing georiferito: FixMyTransport.

Il progetto è stato realizzato da MySociety.org una not-for-profit company che ha due missioni: la prima è  quella di essere un progetto di beneficenza che costruisce siti web che hanno come obiettivo quello di dare alle persone  e alla comunità semplici, tangibili benefici per gli aspetti civili, e la seconda è quello di insegnare al settore pubblico e al volontariato, attraverso la dimostrazione, come utilizzare Internet nel modo più efficace per migliorare la vita.

Ho già citato in un precedente post uno dei progeti realizzati, FixMyStreet, da cui FixMyTransport prende ispirazione.

Ma di che cosa si tratta? FixMyTransport è stato realizzatoper aiutare le persone a risolvere piccoli problemi comuni legati al trasporto pubblico. L’iniziativa è rivolta specificamente a piccoli problemi come le biglietterie automatiche costantemete fuori servizio, gli autobus che non rispettano gli orari come anche regole che sembrano non fare altro che  creare disagi per i viaggiatori.

FixMyTransport cerca di facilitare le persone nell’invio delle segnalazioni di problemi alle Aziende o alle Autorità responsabili di tali problemi. In realtà il sistema cerca di andare oltre quello che può sembrare un semplice invio di una mail: raccogliendo e visualizzando le segnalazioni degli utenti permette di far da “pungolo” alla Aziende di trasporto o agli Enti in quanto diventa evidente la persistenza di un problema e la necessità di risposte e di intervento.

Anche le Aziende o gli Enti preposti possono raccogliere le segnalazioni degli utenti e, in caso, rispondere più tempestivamente.

Ecco un esempio di flusso:

L’iniziativa è interessante e anche i numeri, sebbene non una valanga, sono in crescita.

Quello che potrebbe aiutare a far prendere il volo al sevizio forse è la presenza di una app fruibile anche da smartphone che permetterebbe di fare segnalazioni in tempo reale corredandole di foto e filmati. Considerando che nel 2012 nella capitale britannica si svolgeranno le Olimpiadi estive potrebbe essere un ottimo servizio.

Fonte: Mapperz

Open Data Georiferiti: come visualizzarli su una mappa?


Negli ultimi tempi sempre più spesso nei vari blog ci s’imbatte in post in cui si parla di Raw Data, Open Data, Linked Data, ecc …, il che testimonia un gran fervore e dibattito sulla questione dei dati liberamente disponibili a tutti.

Ci sono iniziative a livello mondiale (es. Open Knowledge Foundation – http://okfn.org/, Linked Data – http://linkeddata.org/, ecc ….), che stanno ampliando la quantità di dati messi a disposizione degli utenti, e che ,al tempo stesso, contribuiscono anche a livello di proposizione di standard da rispettare per facilitare la condivisione, l’interoperabilità e l’uso dei dati stessi.

A tal riguardo anche sul territorio nazionale iniziano ad esserci iniziative degne di nota, tra tutte sicuramente la prima a produrre risultati concreti è stata Dati Piemonte (http://www.dati.piemonte.it/); altre ne arriveranno a breve, e insieme metteranno a disposizione di tutti dati grezzi (raw), e dati open liberamente utilizzabili (in realtà utilizzabili rispettando le licenze d’uso del dato stesso, ma lo spirito che anima queste iniziative è senz’altro quello di rendere tutta l’informazione disponibile senza restrizioni).

Partendo da una situazione in cui molti anni fa (ma forse neanche così tanti in effetti ….), in cui i dati e le informazioni che da questi si potevano trarre erano per così dire “… chiuse in un cassetto ….” e disponibili inizialmente solo in seguito a richieste di autorizzazione e in formati dati per lo più proprietari, si è successivamente poi transitati per un momento storico in cui questi dati ed informazioni sono stati esposti tramite applicazioni, (modello ampliatosi ulteriormente con l’avvento del mondo web). Quello che si prospetta ora è un nuovo scenario in cui sicuramente disponibilità di dati grezzi e pubblici sarà molto più ampia che non nel passato anche recente: per certi versi, portando all’estremo questo modello si può dire che potremmo rischiare l’overdose di dati!

In un tale scenario diventa quindi importante avere degli strumenti che permettano di poter usare il più facilmente possibile questi dati anche ad un’utenza “non tecnica”, al fine di permettere a tutti di usare i dati grezzi e liberi disponibili per ricavare ed estrarre le informazioni necessarie ai propri fini e attività.

Il concetto può sembrare banale ma è uno dei rischi che vedo nella ampia proliferazione di dati in formati e protocolli di accesso diversi, per quanto standard, ma spesso astrusi ad un’utenza non tecnica, fenomeno che rischia di far diventare rapidamente questi dati liberamente disponibili “lettera morta” e vanificare, in parte, il grosso sforzo che ha portato proprio a renderli aperti a tutti.

I dati prettamente alfanumerici possono essere “quasi” universalmente resi disponibili come raw data, ad esempio con un file CSV: questo formato infatti è così ampiamente diffuso e “standard de facto” che una volta in possesso dell’utente finale, sia esso un professionista, un tecnico, o anche solo un utente casuale di internet ma interessato a quel dato, questi con uno strumento che molto probabilmente ha sulla sua postazione di lavoro (Excel di Microsoft Office, Calc di Open Office, e altro), con un semplice doppio click e poche altre azioni (magari istruite con delle semplici linee guida all’utilizzo del dato), può essere in grado di visualizzare.

Discorso leggermente diverso penso valga per i dati geografici, per cui il rischio citato in precedenza può essere molto più concreto (e il che è un peccato perché chi opera con i dati spaziali sa che è diverso vedere un elenco tabellare di un dato rispetto a vedertelo su una mappa, il livello di comunicazione informativa, esplicita ed implicita, è diverso e ci sono cose, concetti, relazioni, ecc …. che, se non viste su una mappa, non saranno colti).

E’ vero che ci sono formati dati e protocolli standard (ESRI shapefile, DXF, KML, gli standard OGC, ecc ….),ma non possiamo certo dire che questi siano così “universali” da essere messi sullo stesso livello del file in formato CSV del paragrafo precedente, e queste considerazioni valgono in maggior misura per un utente casuale che non abbia conoscenze tecniche pregresse.

La finalità di questo post è ben lungi dal cercare di dare una risposta complessiva al problema sopra citato, ma vuole provare a dare delle indicazioni pratiche, ad un’utenza minimamente tecnica su come, in alcuni casi, sia possibile partire da un dato grezzo liberamente disponibile, georiferirlo e pubblicarlo facilmente su una mappa web di un proprio sito.

Allo scopo mi serviva un dato “open data” liberamente disponibile, georiferito o georiferibile, e con un insieme di dati significativo così da rendere l’esempio non solo accademico ma arrivare ad un qualcosa di utile e non banale.

La scelta è caduta sull’anagrafe delle strutture di ricettività della Regione Piemonte con lo scopo di fare una mappa in cui tutte queste strutture comparissero contemporaneamente: normalmente nei siti a scopo turistico si può ricercare una struttura per nome, per indirizzo, al più per comune, ma non mi ero mai imbattuto in una mappa web che mi desse una visione d’insieme di tutte queste strutture.

Dati di partenza
I dati di partenza sono stati prelevati dal sito Dati Piemonte (rif. http://www.dati.piemonte.it/): il dataset utilizzato è quello anagrafe delle strutture di ricettività sul territorio piemontese, circa 5.000 strutture, quindi anche numericamente significativo in termini di mole di dati da trattare (rif. http://www.dati.piemonte.it/dato/item/1232-anagrafica-esercizi-ricettivit%C3%A0.html).

Il dataset viene offerto, dopo aver accettato la licenza d’uso (Creative Commons – CC0 1.0 Universal.), insieme alle linee guida per l’utilizzare, in formato CSV e quindi facilmente consultabile con Excel di Microsoft Office o Calc di Open Office.

I successivi problemi da affrontare sono stati: come mettere in modo efficace ed efficiente tutti questi dati su una mappa web, come far fruire i dati alla mappa e come georiferire i dati stessi

Mettere in modo efficace ed efficiente tutti i dati su una mappa web
Il modo più efficace ed efficiente che si ha a disposizione, quando si ha a che fare con grosse moli di dati puntuali da rappresentare su una mappa, è quello di usare le tecniche di aggregazione dinamica dell’informazione puntuale (clustering).

Nel mio caso ho usato quanto Google Maps mette a disposizione (rif. http://google-maps-utility-library-v3.googlecode.com/svn/trunk/markerclusterer/ ), ma algoritmi analoghi sono disponibili anche in soluzioni open source quali OpenLayers (rif. http://dev.openlayers.org/releases/OpenLayers-2.10/examples/strategy-cluster.html ). Magari in un prossimo futuro può essere argomento di un futuro post.

Analizzando gli esempi offerti ho visto che avrei dovuto esporre i miei dati via JSON per poterli utilizzare con questa soluzione.

Far fruire i dati alla mappa
La situazione di partenza era quindi la seguente:

  • avevo dei dati pubblici a disposizione, anche se di dimensione non banale in termini di numero di record
  • avevo necessità di accedere a questi dati via http (JSON), ma non avevo, e non volevo dotarmi, di un’infrastruttura che li ospitasse

La scelta che ho fatto è stata quella di utilizzare Google Fusion Tables (rif. tables.googlelabs.com/ ), che mi permetteva di:

  • ospitare senza problemi i miei circa 5.000 record di dati
  • georiferirmeli
  • espormeli via JSON

Dopo una prima prova su un campione di dati ho visto che la strada era perseguibile.

Visto che il numero di record era troppo elevato da trattare in un solo colpo, ho suddiviso i dati di partenza in otto files corrispondesti alle rispettive provincie piemontesi e li ho caricati su Google Fusion Tables.

Una volta caricati, per ognuno di questi files ho provveduto a rendere “pubblici” (tasto Share e poi opzione Public), la tabella stessa, condizione necessaria per l’esposizione via JSON al fine di agganciare successivamente i dati dalla mappa.

Tra i dati, nell’ottica di una loro georeferenziazione, le colonne che possono essere utili sono:

·    indirizzo: es. VIA CATTEDRALE, 7
·    CAP: es. 14100
·    Comune: es. ASTI

Il primo passo è stato quello di aggiungere al file CSV, trasformato in foglio elettronico, una colonna che ho denominato “Georeferenziazione” che concatenasse (formula utilizzata =CONCATENA(E3;” “;D3;” “;C3) nel mio caso), queste informazioni allo scopo di poter ottenere la localizzazione su mappa dell’indirizzo completo. Le tre informazioni di cui sopra nel nuovo campo sono quindi così concatenate

ASTI 14100 VIA CATTEDRALE, 7

Purtroppo quasi subito Google ha fatto una modifica a Fusion Tables in seguito alla quale la georeferenziazione non restituiva più latitudine e longitudine della georeferenziazione per indirizzo, ma la georeferenziazione veniva messa in un unico oggetto il che rendeva impossibile utilizzare facilmente la soluzione di clustering di punti su mappa che avevo individuato.

Ho dovuto quindi trovare, per questa fase, una soluzione alternativa

Georeferenziazione
Dopo un po’ di ricerche sul web ho individuato il seguente indirizzo

http://stevemorse.org/jcal/latlonbatchsecure.html?direction=forward

che faceva al mio caso, permettendomi di georiferire in blocco molti indirizzi per volta utilizzando sia Yahoo! Maps sia Google Maps.

Per ogni files delle singole province in cui ho suddiviso i dati di partenza, o copiato il contenuto della colonna “Georeferenziazione” nell’area di testo della procedura di Steve Morse e così ho ottenuto per ogni indirizzo la sua georeferenziazione in termini di latitudine e longitudine, dati che ho provveduto a copiare in due nuove colonne (denominate “Latitudine” e “Longitudine”), che ho aggiunto alle tabelle per provincia presenti su Google Fusion Tables.

E’ ovvio che la procedura automatica non risolve tutti gli indirizzi (il processo automatico però permette di georiferire correttamente almeno un buon 80 % dei dati), e quindi è necessaria un’attività di raffinamento e controllo che va eseguita manualmente.

Nei dati da me georiferiti ho cercato di eliminare gli errori più macroscopici (es. indirizzi finiti fuori provincia di appartenenza e alcuni doppioni in termini di georeferenziazione), ma i dati dell’esempio finale potrebbero avere ancora qualche errore: tuttavia lo scopo dell’esempio non era quello di avere un prodotto finito quanto di formine una linea guida per portare su mappa degli open data, e quindi il processo di raffinamento delle informazioni non è da considerare completo (se devo dare un’indicazione mi sentirei di affermare che il dato è da considerare comunque buono al 90%).

Le verifiche di raffinamento della procedura di georeferenziazione sono state fatte:

  • usando l’applicazione con la mappa, cambiando di volta in volta nel codice il riferimento alla tabella della provincia da controllare. Per i punti che ricadevano al di fuori della provincia stessa questi si possono interrigare e vedere di capire se ci sono problemi nell’interpretazione dell’indirizzo stesso o semplicemente riprovando ad usare la procedura di georeferenziazione sul singolo indirizzi magari usando una fonte diversa (es. Yahoo! al posto di Google)
  • ordinando le colonne latitudine / longitudine per individuare i valori troppo estremi (minimi e massimi rispetto alla media), come casi “critici” da verificare.

Terminata la georeferenziazione per le singole province i dati sono stati esportati singolarmente e poi rimessi insieme in un unico file e ricaricati su Google Fusion Tables.

Ecco l’accesso alle singole tabelle:

mentre ecco l’accesso alla tabella d’insieme

Dettagli sulla mappa
Il risultato finale dell’attività è rappresentato dalla seguente mappa (fare click sull’iimagine per lanciare l’applicativo)

Il codice sorgente della mappa (liberamente disponibile a tutti), è commentato nei suoi vari passi quindi per chi interessato consiglio di consultare direttamente il codice della pagina.

Conclusioni
Con l’approccio indicato è quindi possibile portare su mappa un dato puntuale che è georiferito o georiferibile.

Credo che sarebbe interessante che i vari portali che trattano open data o linked data iniziassero a rendere disponibili anche i dati in modo tale che questi possano essere facilmente essere posti su una mappa. Qualcosa ho visto che inizia a muoversi, http://mapperz.blogspot.com/2011/05/open-street-map-linked-geodata.html e http://browser.linkedgeodata.org/?lat=51.063657689874&lon=13.750735172091&zoom=16&prop=amenity&val=

E’ ovvio che si va così un po’ oltre quello che è il concetto di open data e ci si sposta sempre di più verso un concetto di “servizio” (da open data a open service?), e su questi aspetti ci sono iniziative autorevoli che cercano di normare da tempo questi aspetti come INSPIRE in Europa, ma credo che sia necessario che questo due mondi inizino a colloquiare e trovare punti di contatto e collaborazione.

Open Layers & Mobile: aggiornamento


Dal 20 al 25 Febbraio a Losanna un gruppo di sviluppatori di OpenLayers (il framework Javascript che da anni è un indiscusso leader mondiale del web mapping / web gis open source), si sono ritrovati per un code sprint avente come obiettivo quello di “portare OpenLayers su piattaforma mobile”.

La sempre maggiore diffusione degli smartphone, sui quali la componente di localizzazione, e quindi spaziale, è praticamente presente di default, presto renderà il mobile LA piattaforma di riferimento per applicazioni di largo consumo.

OpenLayers, pena rischiare di essere tagliato fuori da quello che sarà un nuovo (nuovo ???!!! …..), mercato, non può lasciarsi sfuggire una grossa (e ghiotta …..), opportunità di essere presente come strumento per lo sviluppo di applicazioni di web mapping open source anche su questo tipo di piattaforme valorizzando il patrimonio di know how già presente a livello mondiale.

L’avere infatti OpenLayers “pronto” per essere integrato in queste applicazioni è una bella notizia per tutti coloro che già usano da anni questo framework e che saranno quindi facilitati nella realizzazione delle prime applicazioni su mobile.

Ecco un breve riassunto delle attività svolte e dei risultati:

  • miglioramento dell’event handling (drag & click handler). Ora i controlli out-of-the-box di OpenLayers funzionano sia in ambienti mouse-centrici sia in ambienti touch-centrici
  • miglioramento delle prestazioni anche su dispositivi con risorse limitate con particolare attenzione al posizionamento e resizing dei tiles
  • approfondimenti su modalità di offline browsing e offline editing che rappresentano sicuramente degli aspetti chiave per l’utilizzo di soluzioni da offrire su dispositivi mobili anche in situazioni di scarsa copertura del segnale telefonico
  • per quei browser che supportano Geolocation API c’è la disponibilità di un Geolocate control che permette di posizionare elementi sul territorio e gestirne le modifiche di localizzazione
  • supporto del touch dragging sia per dispositivi iOS sia per quelli Android. Per i browser senza full touch drag le mappe gestite da OpenLayers possono essere ricentrate tramite doppio click
  • esempi di integrazione di OpenLayers sia con jQuery Mobile sia con Sencha Touch
  • OpenLayers è una libreria Javascript piuttosto ampia, mentre una tipica applicazione di web mapping basata su OpenLayers usa una piccola frazione delle funzionalità disponibili dalla libreria stessa. Al fine di rendere più performante le applicazioni basate su OpenLayers, in particolare per dispositivi mobili ma in generale per tutte le applicazioni Javascript-based, è importante assemblare solo la porzione della libreria necessaria alle funzionalità che si andranno ad offrire. Il gruppo di sviluppo che ha partecipato al code sprint renderà disponibili dei build limitati per gli esempi resi disponibili e un OpenLayers build tool basato su Google Closure Compiler allo scopo di creare dei build che minimizzino il codice applicativo
  • le nuove funzionalità saranno rese disponibili nella prossima release stabile di OpenLayers quindi la 2.11

Ecco i post che riassumono l’esperienza di queste due giornate: