Archivio

Posts Tagged ‘Google Fusion Tables’

CartoDB vs Google Fusion Tables


Oggi sul blog di CartoDB è apparso un interessante (anche se ovviamente di parte ….), post che fa un confronto tra CartoDB e Google Fusion Tables.

L’articolo è comunque interessante e riporta, partendo dalle finalità comuni (permettere agli utenti di fare upload di dati spaziali e poi usare questi dati per creare visualizzazioni su mappe), le principali differenze tra i due prodotti a partire dalle licenze, i limiti sulla quantità di dati e quelli della map customization.

FusionCartoDB

Fonte: CartoDB Blog

OpenGeoData: come utilizzarli su una mappa? Le scuole in Piemonte con un mash up usando Google Fusion Tables

1 maggio 2013 2 commenti

Riporto un nuovo esempio di web mapping usando un mash up su open data: questa volta ho utilizzato Google Fusion Tables come “base dati” e le Google Maps API come soluzione di web mapping.

Questo esempio ha lo scopo di illustrare un prototipo di web mapping che permetta di consultare una mappa interattiva rappresentante le Scuole in Piemonte (suddivise per ordine e grado), e delle informazioni scolastiche aggregate su base comunale.

I dati

I dati utilizzati sono tutti dati open source e precisamente:

Ovviamente questi dati vanno intesi come dati di prova: a fronte di un aggiornamento dei dati, mantenendo inalterata la struttura dati, l’applicazione non richiede alcun tipo di intervento.

Occorre tuttavia evidenziare che i dati originali, come tratti dai portali di cui sopra, non sono strutturati per essere utilizzati direttamente dall’applicativo ma è stato necessaria un’attività di trattamento dati preliminare per renderli “georiferibili”.

Le attività svolte sono state rispettivamente:

  • Scuole: le scuole sono rese disponibili solo con il loro indirizzo e non (purtroppo ….), con le coordinate che le possano già caratterizzare sul territorio. Partendo quindi dall’indirizzo si sono sfruttati dei tools di georeferenziazione automatica presenti e disponibili sul web per ricavare la loro georeferenziazione, nello specifico ho utilizzato http://stevemorse.org/jcal/latlonbatchsecure.html?direction=forward . La precisione e l’accuratezza di questo dato è quindi approssimativa ma funzionale per il prototipo presentato.
  • Studenti piemontesi 2009 – 2010: qui le informazioni di georeferenziazione erano assenti. Attraverso la manipolazione dei dati si è fatto in modo di associare ad ogni comune il suo codice ISTAT e poi sulla base di questo, con delle operazioni di join, sui dati si è riportata questa informazione su base comunale permettendo quindi la rappresentazione di queste informazioni su base comunale e la loro tematizzazione. Per il caricamento dello shapefile risultante su Google Fusion Tables ho utilizzato Shape Escape.

Procedimento

Nella realizzazione si è tenuto conto e si è preso spunto dell’esistenza del progetto “Scuole in Chiaro” (rif. http://cercalatuascuola.istruzione.it/cercalatuascuola/ ), realizzato da parte del MIUR

ScuoleInChiaro

La soluzione del Ministero è una web application fruibile da web browser basata sull’utilizzo delle Google Maps, partendo dalle quali sono state realizzate una serie di componenti funzionali che permettono di ottenere informazioni varie sulle Scuole secondo modalità diverse.

Il sito permette la consultazione dei dati delle Scuole impostando una serie di criteri di ricerca per arrivare poi alla visualizzazione dei dati di interesse.

ScuoleInChiaro-1

Da notare che è  necessario impostare dei filtri di ricerca altrimenti non è possibile visualizzare su mappa alcuna scuola. Tra l’altro, se il filtro di ricerca impostato è tale da restituire un numero elevato di risultati, viene chiesto all’utente di restringere i criteri di ricerca al fine di arrivare ad un numero di risultati gestibili applicativamente, questo per evitare lunghi tempi di risposta nella visualizzazione su mappa.

Il risultato della ricerca può essere visualizzato su mappa e poi da questa direttamente interrogato.

ScuoleInChiaro-2

Partendo da questa esperienza ho provato a dare una chiave di lettura diversa alla consultazione del dato relativo alle Scuole e alle informazioni ad esse associate: questo post descrive una soluzione applicativa che permette di consultare le medesime informazioni  offerte da “La Scuola in chiaro”, in una modalità alternativa integrando le informazioni sulle Scuole anche con altro contenuto informativo, su base comunale,  sempre legato all’ambito della mondo scolastico in modalità mash-up.

Questa soluzione permette di visualizzare sempre tutte le scuole del Piemonte secondo modalità diverse che salvaguardino le prestazioni applicative, ma offrendo all’utente sempre una risposta, al limite aggregando in modo dinamico quelle informazioni che, alla scala corrente della mappa, la renderebbero poco leggibile (questa tecnica è nota con il nome di clustering e viene adottata tipicamente quando si trattano informazioni puntuali su mappa quali sono quelle della localizzazione sul territorio delle scuole).

La soluzione si presenta, per la parte mappa e nella sua forma prototipale, nel seguente modo:

ScuolePiemonte-1

ed ecco il  dettaglio della mappa ad un maggiore livello di zoom

ScuolePiemonte-2

I marker in rosso possono essere direttamente interrogati come avviene normalmente su una mappa Google, mentre i marker in blu, con un numero al loro interno, significano che in corrispondenza di quel punto ci sono “n” elementi che a quella scala non sono visibili. Se l’utente desidera visualizzarli è sufficiente che faccio uno (o più), zoom di dettaglio ulteriore.

L’applicazione propone altre funzionalità ad esempio la possibilità di posizionarsi sulla mappa per comune e/o indirizzo

ScuolePiemonte-3

La mappa si centrerà sull’elemento ricercato evidenziandolo con un pallino verde.

E’ inoltre possibile visualizzare su mappa (sempre utilizzando il meccanismo del clustering), solo le scuole di un certo ordine e grado

ScuolePiemonte-4

Infine è possibile tematizzare su base comunale per una serie di indicatori

ScuolePiemonte-5

Ad esempio ecco la mappa risultante da:

  • Selezione delle Scuole Primarie
  • Centrata sul Comune di Carignano
  • Tematizzata per totale classi di scuole primaria per comune

ScuolePiemonte-6

Da notare che è sempre possibile interrogare sia il dato delle scuole sia il dato della tematizzazione comunale.

L’applicazione è liberamente consultabile on line.

Opportunità

La soluzione prototipale proposta disacoppia fortemente la parte di interfaccia dai dati che sono esposti tramite dei servizi JSON. (rif. Dati delle scuole riferiti ai comuni  e Dati delle scuole georiferite  )

Questa impostazione permette di immaginare soluzioni fruitici diverse da quella presentata delle stesse informazioni ad esempio soluzioni mobile fruibili tramite smartphone e/o tablet (anche se  in questo caso l’applicazione va completamente ripensata in quanto cambia totalmente il pattern di utilizzo)

Codice sorgente

L’applicazione è costituita da un’unica pagina HTML / Javascript che utilizza la Google Maps API e si appoggia come fonte dati a tavole mantenute su Google Fusion Tables.

Il codice sorgente è liberamente scaricabile ed utilizzabile: al suo interno sono riportati commenti per facilitarne la comprensione.

Google Fusion Tables e strumenti GIS


Tenpo fa, per pubblicare su mappa dei dati open e non disponendo di un database e di un motore GIS, ho provato ad utilizzare Google Fusion Tables come possibile soluzione, rappresentando poi il tutto usando le Google Maps API.

Recentemente ho trovato due interessanti post che possono essere di spuntoi per provare ad integrare Google Fusion Tables con il mondo e gli strumenti GIS.

GIS Lounge suggerisce un metodo per caricare direttamente uno shapefile su Google Fusion Tables senza passare da una precedente conversione in KML, mentre Webrian suggerisce come impostare una tabella di Google Fusion Tables come sorgente dati per QGIS 1.9.

Fonte: GIS Lounge e Webrian

Google Crisis Response: un video di approfondimento

24 settembre 2012 Lascia un commento

Su Geo Developers Blog di Google è apparso un post con un interessante video che offre un approfondimento su come è realizzato ed opera  Google Crisis Response.

Google Crisis Response è stato costituito nel Gennaio 2011 dopo il terremoto ad Haiti per organizzare le  risorse di Google da mettere a disposizione alla comunità in casi di eventi calamitosi di quella portata.

Il suo obiettivo è, in caso di calamità, raccogliere e pubblicare dati georiferiti ed eterogenei che possono provenire da fonti e enti diversi, su una mappa in modo unitario senza necessità di utilizzare strumenti tecnici per specialisti

Utilizza gli stessi strumenti ed API che sono disponibili agli sviluppatori esterni tra cui:

  • le API di Google Maps ovviamente
  • Google Fusion Tables per ospitare sul cloud le informazioni da condividere e rappresentare su mappa
  • Google Closure Compiler per ridurre le  dimensoni delle applicazioni Javascript based al fien di renderle maggiormente prestanti ed operative anche su dispositivi mobili
  • Google JS Test per i test unitari per JavaScript e per testare così la portabilità sui vari browser e anche per il mobile

Fonte: Google Geo Developers Blog

Tematizzare open data georiferiti? I(n)stat View!


E’ stata lanciata nel mese di dicembre 2011 da La Macchina del Fungo, un laboratorio di idee, progetti e provocazioni giornalistiche, l’iniziativa ‘I(n)stat View‘.

Si tratta di uno dei primi esperimenti di data journalism e di dataviz italiani basato su una serie di mappe che utilizzano le statistiche fornite dall’Istat per fornire, attraverso numeri e tabelle, informazioni visuali di più intuitiva consultazione.

 

Il progetto è sviluppato con strumenti gratuiti e Open Data ed è rilasciato con licenza Creative Commons 3.0 Attribuzione. In poche parole, è possibile riutilizzare l’intero materiale a proprio piacimento (anche per scopi commerciali) a condizione di citarne la fonte.

Le diverse mappe sono state realizzate con Google Fusion Table, uno strumento indispensabile per chi voglia avvicinarsi alla visualizzaizone di dati attraverso le mappe. La scelta di questo software, oltre che per la sua relativa semplicità d’uso, è stata motivata anche dal suo potenziale collaborativo e per la possibilità di essere utilizzato anche su device senza Flash Player (iPad su tutti).

Il progetto è davvero interessante e rappresenta una opportunità per chi intenda tematizzare su una mappa open data georiferiti.

Fonte: I(n)stat View

Open Data: City of Philadelphia e British Columbia


Recentemente sono comparsi un paio di post (qui e qui)  interessanti in merito a casi di portali legati agli Open Dati: entrambi possono offrire spunti interessanti.

La provincia di British Columbia è stata la prima in Canada a lanciare un portale open data che offre a cittadini e sviluppatori la possibilità di esplorare e scaricare grandi volumi di dati e informazioni governative. Il loro catalogo dati conta 2.500 dataset, strumenti per fare ricerche e anche tools per sviluppare applicazioni custom che facciano uso di open data.  Per questi tools le tecnologie coinvolte sono Geocommons, Google Fusion Tables, iMapBC  e StatPlanet per le mappe Flash based.

La città di Philadelphia in Pennsylvania, utilizza OpenDataPhilly per fornire accesso a più di 100 dataset, applicazioni e API relative all’informazione certificata della Città su un ampio spettro di argomenti. Le tecnoogie coinvolte sono ESRI based (ArcGIS technology).

Fonte: Spatial Sustian e ESRI News

GeoDevelopers a Google I/O 2011


Al Google I/O 2011, che si è tenuto a San Francisco dal 10 all’11 Maggio 2011, ci sono state ovviamente anche sessioni legate agli aspetti geografici, in particolare su Google Earth, Google Maps, Google Fusion Tables e le loro possibili integrazioni.

Una interessante raccolta è possibile consultarla in questo post del Google Geo Developers Blog, insieme ad alcuni video interessanti per i quali si annuncia tra l’altro che nel corso del mese di Luglio vi saranno dei singoli post di approfondimento sul blog stesso con una iniziativa denominata “Geo APIs Summer Learning Series”.

Visto che quello che i ragazzi di Mountain View tirano fuori spesso diventa uno standard de facto (nel bene o nel male), è il caso di dire …. stay tuned!

Fonte: Geo Developers Blog

 

 

Open Data Georiferiti: come visualizzarli su una mappa?


Negli ultimi tempi sempre più spesso nei vari blog ci s’imbatte in post in cui si parla di Raw Data, Open Data, Linked Data, ecc …, il che testimonia un gran fervore e dibattito sulla questione dei dati liberamente disponibili a tutti.

Ci sono iniziative a livello mondiale (es. Open Knowledge Foundation – http://okfn.org/, Linked Data – http://linkeddata.org/, ecc ….), che stanno ampliando la quantità di dati messi a disposizione degli utenti, e che ,al tempo stesso, contribuiscono anche a livello di proposizione di standard da rispettare per facilitare la condivisione, l’interoperabilità e l’uso dei dati stessi.

A tal riguardo anche sul territorio nazionale iniziano ad esserci iniziative degne di nota, tra tutte sicuramente la prima a produrre risultati concreti è stata Dati Piemonte (http://www.dati.piemonte.it/); altre ne arriveranno a breve, e insieme metteranno a disposizione di tutti dati grezzi (raw), e dati open liberamente utilizzabili (in realtà utilizzabili rispettando le licenze d’uso del dato stesso, ma lo spirito che anima queste iniziative è senz’altro quello di rendere tutta l’informazione disponibile senza restrizioni).

Partendo da una situazione in cui molti anni fa (ma forse neanche così tanti in effetti ….), in cui i dati e le informazioni che da questi si potevano trarre erano per così dire “… chiuse in un cassetto ….” e disponibili inizialmente solo in seguito a richieste di autorizzazione e in formati dati per lo più proprietari, si è successivamente poi transitati per un momento storico in cui questi dati ed informazioni sono stati esposti tramite applicazioni, (modello ampliatosi ulteriormente con l’avvento del mondo web). Quello che si prospetta ora è un nuovo scenario in cui sicuramente disponibilità di dati grezzi e pubblici sarà molto più ampia che non nel passato anche recente: per certi versi, portando all’estremo questo modello si può dire che potremmo rischiare l’overdose di dati!

In un tale scenario diventa quindi importante avere degli strumenti che permettano di poter usare il più facilmente possibile questi dati anche ad un’utenza “non tecnica”, al fine di permettere a tutti di usare i dati grezzi e liberi disponibili per ricavare ed estrarre le informazioni necessarie ai propri fini e attività.

Il concetto può sembrare banale ma è uno dei rischi che vedo nella ampia proliferazione di dati in formati e protocolli di accesso diversi, per quanto standard, ma spesso astrusi ad un’utenza non tecnica, fenomeno che rischia di far diventare rapidamente questi dati liberamente disponibili “lettera morta” e vanificare, in parte, il grosso sforzo che ha portato proprio a renderli aperti a tutti.

I dati prettamente alfanumerici possono essere “quasi” universalmente resi disponibili come raw data, ad esempio con un file CSV: questo formato infatti è così ampiamente diffuso e “standard de facto” che una volta in possesso dell’utente finale, sia esso un professionista, un tecnico, o anche solo un utente casuale di internet ma interessato a quel dato, questi con uno strumento che molto probabilmente ha sulla sua postazione di lavoro (Excel di Microsoft Office, Calc di Open Office, e altro), con un semplice doppio click e poche altre azioni (magari istruite con delle semplici linee guida all’utilizzo del dato), può essere in grado di visualizzare.

Discorso leggermente diverso penso valga per i dati geografici, per cui il rischio citato in precedenza può essere molto più concreto (e il che è un peccato perché chi opera con i dati spaziali sa che è diverso vedere un elenco tabellare di un dato rispetto a vedertelo su una mappa, il livello di comunicazione informativa, esplicita ed implicita, è diverso e ci sono cose, concetti, relazioni, ecc …. che, se non viste su una mappa, non saranno colti).

E’ vero che ci sono formati dati e protocolli standard (ESRI shapefile, DXF, KML, gli standard OGC, ecc ….),ma non possiamo certo dire che questi siano così “universali” da essere messi sullo stesso livello del file in formato CSV del paragrafo precedente, e queste considerazioni valgono in maggior misura per un utente casuale che non abbia conoscenze tecniche pregresse.

La finalità di questo post è ben lungi dal cercare di dare una risposta complessiva al problema sopra citato, ma vuole provare a dare delle indicazioni pratiche, ad un’utenza minimamente tecnica su come, in alcuni casi, sia possibile partire da un dato grezzo liberamente disponibile, georiferirlo e pubblicarlo facilmente su una mappa web di un proprio sito.

Allo scopo mi serviva un dato “open data” liberamente disponibile, georiferito o georiferibile, e con un insieme di dati significativo così da rendere l’esempio non solo accademico ma arrivare ad un qualcosa di utile e non banale.

La scelta è caduta sull’anagrafe delle strutture di ricettività della Regione Piemonte con lo scopo di fare una mappa in cui tutte queste strutture comparissero contemporaneamente: normalmente nei siti a scopo turistico si può ricercare una struttura per nome, per indirizzo, al più per comune, ma non mi ero mai imbattuto in una mappa web che mi desse una visione d’insieme di tutte queste strutture.

Dati di partenza
I dati di partenza sono stati prelevati dal sito Dati Piemonte (rif. http://www.dati.piemonte.it/): il dataset utilizzato è quello anagrafe delle strutture di ricettività sul territorio piemontese, circa 5.000 strutture, quindi anche numericamente significativo in termini di mole di dati da trattare (rif. http://www.dati.piemonte.it/dato/item/1232-anagrafica-esercizi-ricettivit%C3%A0.html).

Il dataset viene offerto, dopo aver accettato la licenza d’uso (Creative Commons – CC0 1.0 Universal.), insieme alle linee guida per l’utilizzare, in formato CSV e quindi facilmente consultabile con Excel di Microsoft Office o Calc di Open Office.

I successivi problemi da affrontare sono stati: come mettere in modo efficace ed efficiente tutti questi dati su una mappa web, come far fruire i dati alla mappa e come georiferire i dati stessi

Mettere in modo efficace ed efficiente tutti i dati su una mappa web
Il modo più efficace ed efficiente che si ha a disposizione, quando si ha a che fare con grosse moli di dati puntuali da rappresentare su una mappa, è quello di usare le tecniche di aggregazione dinamica dell’informazione puntuale (clustering).

Nel mio caso ho usato quanto Google Maps mette a disposizione (rif. http://google-maps-utility-library-v3.googlecode.com/svn/trunk/markerclusterer/ ), ma algoritmi analoghi sono disponibili anche in soluzioni open source quali OpenLayers (rif. http://dev.openlayers.org/releases/OpenLayers-2.10/examples/strategy-cluster.html ). Magari in un prossimo futuro può essere argomento di un futuro post.

Analizzando gli esempi offerti ho visto che avrei dovuto esporre i miei dati via JSON per poterli utilizzare con questa soluzione.

Far fruire i dati alla mappa
La situazione di partenza era quindi la seguente:

  • avevo dei dati pubblici a disposizione, anche se di dimensione non banale in termini di numero di record
  • avevo necessità di accedere a questi dati via http (JSON), ma non avevo, e non volevo dotarmi, di un’infrastruttura che li ospitasse

La scelta che ho fatto è stata quella di utilizzare Google Fusion Tables (rif. tables.googlelabs.com/ ), che mi permetteva di:

  • ospitare senza problemi i miei circa 5.000 record di dati
  • georiferirmeli
  • espormeli via JSON

Dopo una prima prova su un campione di dati ho visto che la strada era perseguibile.

Visto che il numero di record era troppo elevato da trattare in un solo colpo, ho suddiviso i dati di partenza in otto files corrispondesti alle rispettive provincie piemontesi e li ho caricati su Google Fusion Tables.

Una volta caricati, per ognuno di questi files ho provveduto a rendere “pubblici” (tasto Share e poi opzione Public), la tabella stessa, condizione necessaria per l’esposizione via JSON al fine di agganciare successivamente i dati dalla mappa.

Tra i dati, nell’ottica di una loro georeferenziazione, le colonne che possono essere utili sono:

·    indirizzo: es. VIA CATTEDRALE, 7
·    CAP: es. 14100
·    Comune: es. ASTI

Il primo passo è stato quello di aggiungere al file CSV, trasformato in foglio elettronico, una colonna che ho denominato “Georeferenziazione” che concatenasse (formula utilizzata =CONCATENA(E3;” “;D3;” “;C3) nel mio caso), queste informazioni allo scopo di poter ottenere la localizzazione su mappa dell’indirizzo completo. Le tre informazioni di cui sopra nel nuovo campo sono quindi così concatenate

ASTI 14100 VIA CATTEDRALE, 7

Purtroppo quasi subito Google ha fatto una modifica a Fusion Tables in seguito alla quale la georeferenziazione non restituiva più latitudine e longitudine della georeferenziazione per indirizzo, ma la georeferenziazione veniva messa in un unico oggetto il che rendeva impossibile utilizzare facilmente la soluzione di clustering di punti su mappa che avevo individuato.

Ho dovuto quindi trovare, per questa fase, una soluzione alternativa

Georeferenziazione
Dopo un po’ di ricerche sul web ho individuato il seguente indirizzo

http://stevemorse.org/jcal/latlonbatchsecure.html?direction=forward

che faceva al mio caso, permettendomi di georiferire in blocco molti indirizzi per volta utilizzando sia Yahoo! Maps sia Google Maps.

Per ogni files delle singole province in cui ho suddiviso i dati di partenza, o copiato il contenuto della colonna “Georeferenziazione” nell’area di testo della procedura di Steve Morse e così ho ottenuto per ogni indirizzo la sua georeferenziazione in termini di latitudine e longitudine, dati che ho provveduto a copiare in due nuove colonne (denominate “Latitudine” e “Longitudine”), che ho aggiunto alle tabelle per provincia presenti su Google Fusion Tables.

E’ ovvio che la procedura automatica non risolve tutti gli indirizzi (il processo automatico però permette di georiferire correttamente almeno un buon 80 % dei dati), e quindi è necessaria un’attività di raffinamento e controllo che va eseguita manualmente.

Nei dati da me georiferiti ho cercato di eliminare gli errori più macroscopici (es. indirizzi finiti fuori provincia di appartenenza e alcuni doppioni in termini di georeferenziazione), ma i dati dell’esempio finale potrebbero avere ancora qualche errore: tuttavia lo scopo dell’esempio non era quello di avere un prodotto finito quanto di formine una linea guida per portare su mappa degli open data, e quindi il processo di raffinamento delle informazioni non è da considerare completo (se devo dare un’indicazione mi sentirei di affermare che il dato è da considerare comunque buono al 90%).

Le verifiche di raffinamento della procedura di georeferenziazione sono state fatte:

  • usando l’applicazione con la mappa, cambiando di volta in volta nel codice il riferimento alla tabella della provincia da controllare. Per i punti che ricadevano al di fuori della provincia stessa questi si possono interrigare e vedere di capire se ci sono problemi nell’interpretazione dell’indirizzo stesso o semplicemente riprovando ad usare la procedura di georeferenziazione sul singolo indirizzi magari usando una fonte diversa (es. Yahoo! al posto di Google)
  • ordinando le colonne latitudine / longitudine per individuare i valori troppo estremi (minimi e massimi rispetto alla media), come casi “critici” da verificare.

Terminata la georeferenziazione per le singole province i dati sono stati esportati singolarmente e poi rimessi insieme in un unico file e ricaricati su Google Fusion Tables.

Ecco l’accesso alle singole tabelle:

mentre ecco l’accesso alla tabella d’insieme

Dettagli sulla mappa
Il risultato finale dell’attività è rappresentato dalla seguente mappa (fare click sull’iimagine per lanciare l’applicativo)

Il codice sorgente della mappa (liberamente disponibile a tutti), è commentato nei suoi vari passi quindi per chi interessato consiglio di consultare direttamente il codice della pagina.

Conclusioni
Con l’approccio indicato è quindi possibile portare su mappa un dato puntuale che è georiferito o georiferibile.

Credo che sarebbe interessante che i vari portali che trattano open data o linked data iniziassero a rendere disponibili anche i dati in modo tale che questi possano essere facilmente essere posti su una mappa. Qualcosa ho visto che inizia a muoversi, http://mapperz.blogspot.com/2011/05/open-street-map-linked-geodata.html e http://browser.linkedgeodata.org/?lat=51.063657689874&lon=13.750735172091&zoom=16&prop=amenity&val=

E’ ovvio che si va così un po’ oltre quello che è il concetto di open data e ci si sposta sempre di più verso un concetto di “servizio” (da open data a open service?), e su questi aspetti ci sono iniziative autorevoli che cercano di normare da tempo questi aspetti come INSPIRE in Europa, ma credo che sia necessario che questo due mondi inizino a colloquiare e trovare punti di contatto e collaborazione.

Google Fusion Tables e Protected Map Layer: la quadratura del cerchio?


Google Fusion Tables è un potente database cloud-based che permette di trattare anche grandi dimensioni di dati con una forte integrazione con Google Maps quindi è possibile visualizzare anche migliaia di localizzazioni su una mappa.

Recentemente è stata aggiunta una nuova ed interessante feature il Protected Map Layer  utilizzabile da chi utilizza Google Map API Premier.

Il connubio tra Google Fusion Tables e Google Map API Premier permette di avere una vera piattaforma di localizzazione pienamente cloud-based con nessuna necessità di avere un database, servers da gestire, applicazioni da installare.

Unica pezza ….. Google Map API Premier non è Google Map API ma è un servizio a pagamento ……

Fonte: Google Enterprise