Ing. Giampaolo Beretta
  • BLOG
  • DOWNLOAD
  • CHI SONO
  • CONTATTAMI
  • Menu Menu

PRESENTAZIONE E CONDIVISIONE DI MODELLI 3D (NUVOLE DI PUNTI E MESH)

6 Agosto 2019/in FOTOGRAMMETRIA-RILIEVI

Ciao!
Oggi ti parlerò di un argomento molto importante che riguarda ancora i modelli tridimensionali, ma che non tratta della loro realizzazione, bensì di ciò che avviene dopo. Sul modello ci puoi lavorare: estrarre sezioni, piani quotati, ortofoto, ecc. Oppure puoi farci una presentazione, come nel caso di un modello di un oggetto, ad esempio. Finché sei tu a lavorarci, non ci sono problemi; lo hai realizzato, quindi hai anche tutti gli strumenti che servono per analizzarlo. I problemi nascono quando il tuo modello deve essere condiviso con altri. Non parlo della quantità di gigabyte che devi inviare al tuo committente (che potrebbe comunque dare dei problemi). Parlo del fatto che, molto spesso, chi ti ha commissionato il lavoro non ha gli strumenti, tipo hardware e software, per indagare il tuo modello, oppure non ha le conoscenze informatiche per farlo. Il tuo modello, quindi, potrà essere gestito solo da te.
Quello che ti voglio proporre oggi è un metodo per presentare i tuoi modelli tridimensionali; che siano derivati dalla fotogrammetria, dal laser scanning o da un tastatore 3D, non importa. Lo scopo è quello di creare una presentazione del tuo modello che sia facilmente fruibile, senza necessità di grandi risorse hardware e senza software specifici. L’utente, inoltre, dovrà poter ricavare alcune informazioni, tipo prendere misure o coordinate di punti. Sembra tutto troppo bello? Si può fare, credimi. Come al solito, non ho inventato nulla di nuovo. Nell’articolo citerò tutte le risorse che dovresti usare. Ho scritto apposta “dovresti” perché, in realtà, ti ho preparato una procedura che ti permetterà di ridurre di molto il tuo lavoro di preparazione. Nella prima parte ti mostrerò tutti i passaggi per ottenere il risultato, ma mi rendo conto che sarà gestibile solo dai più “smanettoni”. Nella seconda parte, invece, ti spiegherò la mia scorciatoia quindi, se non sei uno smanettone, comincia a leggere da lì. Io ti consiglio, comunque, di leggere anche la prima parte perché in realtà non è di difficile comprensione; è un po’ macchinosa, ma una volta che ci hai preso la mano riuscirai ad introdurre anche delle variazioni rispetto a quello che ti mostrerò io. Il risultato che otterrai sarà come quello rappresentato nell’immagine seguente. Puoi cliccarci sopra e ti si aprirà un visualizzatore con vari strumenti. Dacci un’occhiata prima di continuare.

Bene. Cominciamo!

SOFTWARE NECESSARI

Il primo software di cui avrai bisogno, oltre a quello con cui hai generato il modello 3D, è quello che ti permetterà di visualizzarlo. Io ho utilizzato 3DHOP (3D Heritage Online Presenter) realizzato dal Visual Computing Laboratory – ISTI – CNR. Come scritto sulla loro pagina internet, 3DHOP è un pacchetto software open-source per la creazione di presentazioni web interattive di modelli 3D ad alta risoluzione orientati al campo del patrimonio culturale. Vedrai che andrà più che bene anche per il rilievo del territorio o di edifici. 3DHOP crea la pagina web del visualizzatore, ma il modello deve prima essere trattato. Per farlo va usato il software NEXUS dei medesimi autori. Puoi scaricare i due software accedendo alla pagina download del sito 3DHOP oppure cliccando sui due pulsanti seguenti. Infatti li ho caricati anche sul mio web server così sono certo che rimarranno sempre disponibili.

3DHOP
NEXUS

Il secondo software di cui avrai bisogno è un editor di codice html. Io utilizzo BlueGriffon. Dalla pagina download puoi scaricare la versione adatta al tuo hardware.

Bene. Adesso vediamo come interagire con questi software.

PREPARAZIONE DEL MODELLO

Prima di tutto è necessario preparare il modello che vuoi presentare. 3DHOP può trattare modelli a singola risoluzione o in multi-risoluzione. I primi sono tipicamente modelli a bassa qualità e di dimensioni inferiori a 1 MB. I secondi, invece, possono essere anche texturizzati e contenenti decine di milioni di triangoli (1-100 milioni). In entrambi i casi può trattarsi di nuvole di punti, ma anche di mesh. Inutile dire che, quando si parla di CNR e di mesh, c’è di mezzo Meshlab; un’altro software open-source di altissimo livello per la manipolazione delle mesh. Infatti, tale software può essere utilizzato per generare il file .ply da dare in pasto a 3DHOP. In questa sede, però, non ti mostrerò il suo utilizzo. Infatti il modello 3D a cui mi riferirò è tratto da un’elaborazione fotogrammetrica ed i software che fanno questo genere di elaborazioni possono già esportare in formato .ply, sia la nuvola di punti, sia la mesh. Se utilizzi Agisoft Metashape, ad esempio, devi andare nel menù File>Export>Export Model… e scegliere il formato .ply. La cosa a cui devi prestare attenzione però, è il sistema di riferimento con cui stai lavorando. Come spesso accade, anche NEXUS non digerisce bene i numeri con molte cifre, tipo le coordinate cartografiche dei sistemi di riferimento in uso in Italia (ETRF89, ERTF2000). Ti consiglio, quindi, di shiftare il modello in modo tale da ottenere coordinate planimetriche con poche cifre. Puoi farlo al momento dell’esportazione, l’importante è che ti segni di quanto shifti perché poi dovrai comunicarlo al tuo committente. Non esportare le normali in quanto ci penserà NEXUS a calcolarle.

Nuvola densa in Agisoft Metashape.

Ricorda, puoi esportare il .ply sia per la nuvola di punti densa, sia per la mesh. Io le ho esportate entrambe ed ho salvato due file: nuvola.ply e mesh.ply.

CONVERSIONE DEL MODELLO

Il modello .ply deve essere convertito in un formato che sia simpatico a 3DHOP. Si tratta di un formato proprietario e la conversione avviene attraverso l’utilizzo di NEXUS. La procedura è davvero molto semplice. La prima cosa che devi fare è scompattare il file Nexus_4.2.zip che hai scaricato prima. Nella cartella scompattata troverai i due file eseguibili che ci interessano: nxsbuild.exe e nxscompress.exe.
A questo punto copia i file nuvola.ply e mesh.ply nella cartella scompattata.

Prendi mesh.ply e trascinalo sopra nxsbuild.exe. Si aprirà una finestra di comando DOS dalla quale potrai vedere il progresso dell’elaborazione.

Alla chiusura della finestra DOS troverai nella cartella il file mesh.nxs.

Ora clicca su mesh.nxs e trascinalo su nxscompress.exe. Anche in questo caso si aprirà una finestra di comando DOS e quando sparirà nella cartella troverai un file mesh.nxz.

Ora ripeti la stessa cosa per nuvola.ply fino ad ottenere nuvola.nxz.
A questo punto il lavoro con NEXUS è terminato.

PAGINA WEB PER LA PRESENTAZIONE

Ora che abbiamo il modello bisogna fare in modo che 3DHOP lo legga e lo presenti attraverso il suo visualizzatore web. Potresti utilizzare i template che trovi nell’archivio 3DHOP_4.2.zip, ma non li ritengo adeguati per i nostri scopi. Infatti tali template .html contemplano delle trackball adatte alla presentazione di oggetti (tipo in un museo). Io, invece ti propongo un template con una trackball sferica tipo quella dei software per la modellazione tridimensionale del territorio o di edifici. Pertanto, ho preparato un file .html con tale trackball che puoi scaricare cliccando sul seguente bottone. E’ un file chiamato presentazione.html.

PRESENTAZIONE

Quello che devi fare adesso è modificare il file presentazione.html utilizzando BlueGriffon. Se lo hai già installato, apri l’html. Io semplicemente trascino l’html sopra l’icona di BlueGriffon. Poi clicca su Sorgente e va alla linea numero 166.

Vedi la scritta modello.nxz? Sostituiscila con mesh.nxz e poi salva con nome: menù File>Salva con nome…>mesh.html. Ecco fatto! La pagina che ti permetterà di visualizzare il modello è stata creata.
Puoi fare la stessa cosa con il file nuvola.nxz. Basta che fai riapri presentazione.html con BlueGriffon, sostituisci modello.nxz con nuvola.nxz e salvi con nome: menù File>Salva con nome…>nuvola.html.

CARICAMENTO DELLA PRESENTAZIONE SUL WEB SERVER

Per prima cosa devi scompattare il file 3DHOP_4.2.zip che hai scaricato prima. Poi devi caricare la cartella minimal sul tuo web server. Per farlo, io utilizzo FileZilla Client, ma puoi utilizzare anche il File Manager online che ti mette a disposizione il tuo provider. Copiala nella posizione che desideri. Nel mio caso www.giampaoloberetta.it/minimal.
Copia i file mesh.html e nuvola.html nella cartella minimal del server.
Copia i due file mesh.nxz e nuvola.nxz nella cartella minimal>models del server.

FileZilla Client.
Accesso al File Manager online di Aruba.

Se adesso clicchi su https://www.giampaoloberetta.it/minimal/mesh.html dovrebbe apparirti il visualizzatore con la mesh. Se invece clicchi su https://www.giampaoloberetta.it/minimal/nuvola.html dovrebbe apparirti la nuvola di punti.

Mesh.
Nuvola densa.

A questo punto puoi ruotare il modello, sezionarlo, prendere misure, prendere la coordinata di un punto, cambiare la posizione della fonte luminosa, ecc.. Prova! Ricordati però che, se prendi le coordinate di un punto, devi sommare lo shift che avevi impostato durante l’esportazione del file .ply.
Se vuoi creare le presentazioni di altri modelli basta che generi i file .nxz e .html e li carichi sul tuo web server nelle stesse posizioni in cui vedi caricati i precedenti, quindi nella cartella minimal e minima\models.
Un’altra cosa che devo dirti è che il tuo modello, così come è stato caricato sul server, sarà visibile a tutti. Infatti anche tu ora stai guardando i miei modelli senza essere entrato in un’area riservata. Chiunque acceda alla pagina web del modello, lo potrà visualizzare. Se non vuoi che questo accada e vuoi che il modello sia visibile solo a chi vuoi tu, dovresti proteggere la pagina con un UserID ed una password. Se sai come fare, dimmelo, perché io non ho ancora trovato un sistema davvero efficace. Solo tanti barbatrucchi.
Quanto ti ho mostrato fin’ora serve solo a visualizzare il modello 3D ed a compiere delle operazioni semplici, basilari. Se vuoi davvero dare la possibilità di lavorare sul file, devi anche dare la possibilità di scaricarlo, ma in questo caso significa che chi sta dall’altra parte sa già come gestirlo e forse la presentazione fatta con 3DHOP diventa superflua. Diciamo che potrebbe servire per un primo contatto o per presentare il proprio lavoro una volta finito.
Il procedimento che ti ho mostrato fin qui ha validità generale, nel senso che ti permette di gestire tutte le impostazioni della presentazione, basta sapere dove mettere le mani. Ti invito, quindi, a visitare il sito di 3DHOP; nella sezione resources troverai tutto quello che ti serve per personalizzare la presentazione del modello: diversi tipi di trackball, angoli di visualizzazione, colori, trasparenze, hotspot e zone cliccabili, unione di modelli, sostituzione dello sfondo, cambio del titolo della pagina, ecc.. Sul loro sito, nella sezione gallery, puoi vedere degli esempi. Figo!

SCORCIATOIA

Fin’ora ti ho mostrato tutti i passaggi che dovresti fare per realizzare la presentazione del tuo modello. Da qui in poi, invece, ti spiegherò come giungere allo stesso risultato utilizzando una “scorciatoia”. La scorciatoia consiste in una procedura automatizzata inserita in un file batch che prende come input il tuo modello .ply e come output ti restituisce il file .nxz e la pagina .html da caricare sul web server. La scorciatoia deve permetterti di alleggerire il lavoro, quindi alcuni parametri li ho scelti io per te, ma credo che ti andranno bene nella maggior parte dei casi. In alternativa, dovrai smanettare un po’ e ti sarà utile quanto illustrato nei paragrafi precedenti. Vediamo, quindi, di cosa avrai bisogno.
Come prima cosa, se non lo hai ancora fatto, scarica 3DHOP e NEXUS cliccando sui due bottoni seguenti. Salvali in una cartella nel cui percorso non ci siano caratteri strani, tipo ( ) \ /, ecc. altrimenti la procedura si bloccherà.

3DHOP
NEXUS

Scompattali.

I due .zip li puoi anche cancellare.
Poi scarica il file CREA PRESENTAZIONE 3D.zip cliccando sul seguente bottone e scompattalo nella stessa cartella dove risiede Nexus_4.2.

CREA PRESENTAZIONE 3D

Dal .zip usciranno tre file che non verranno mai modificati durante la creazione della presentazione, quindi li potrai riutilizzare così come sono senza scompattare nuovamente il .zip.

Nell’esempio che segue prenderò come modello una nuvola di punti che avevo generato con la tecnica fotogrammetrica e che poi avevo elaborato con Cloud Compare. Puoi vedere come ho fatto leggendo l’articolo sul mio blog. La nuvola è stata esportata da Cloud Compare in formato .ply ottenendo il file vaso.ply (salvalo in formato binario).

Ora devi cliccare due volte sul file CREA PRESENTAZIONE.BAT ed inserire vaso quando ti viene chiesto. Poi premi invio ed attendi il termine della procedura.

Nella cartella troverai i file vaso.html e vaso.nxz da caricare sul server.

Per caricare i file .html e .nxz sul server, leggi il paragrafo CARICAMENTO DELLA PRESENTAZIONE SUL WEB SERVER che trovi sopra e procedi per analogia con quanto ivi spiegato.
Ed ecco il risultato. Clicca sull’immagine seguente.

Sezione lungo due piani e misura del diametro interno.

Come avrai notato, con la scorciatoia non serve che installi nessun software. Ti basta scaricare i tre archivi 3DHOP, NEXUS e CREA PRESENTAZIONE 3D. Può sembrarti macchinosa anche questa seconda strada, ma è solo perché ti ho mostrato anche i passaggi più banali. Vedrai che è tutto molto semplice.
Bene! Con questo avrei terminato. In realtà, qui sotto trovi anche un video che ho caricato su YouTube nel quale ti faccio vedere tutti i passaggi e ti spiego alcune personalizzazioni.
Ti ricordo che mi trovi anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta). Lì troverai anche articoli ed informazioni provenienti da altre fonti.

Ciao e grazie!

MIRRORING DELLO SCHERMO DEL RADIOCOMANDO

30 Luglio 2019/in FOTOGRAMMETRIA-RILIEVI

Ciao! Oggi ti voglio parlare del mirroring dello schermo che hai collegato al radiocomando del tuo drone.
A volte capita di farsi assistere da un amico per l’esecuzione di un volo il cui scopo, ad esempio, è quello di fare un’ispezione oppure delle riprese in generale. Per un pilota è fondamentale tenere sotto controllo l’assetto dell’APR. Non solo! Bisogna anche stare attenti a dove lo si sta dirigendo e a cosa gli sta intorno. Quando distogli lo sguardo da quell’oggetto volante (magari distante) per guardare lo schermo del tablet (così vicino) e poi, di nuovo, ti metti a cercarlo in cielo, forse ci metti un po’ ad avere tutto di nuovo sott’occhio. Avere qualcuno che guarda lo schermo per indicarti cosa riprendere, potrebbe far comodo. Personalmente non mi piace molto avere qualcuno appresso che sia legato al mio radiocomando con un cavo HDMI. Preferisco un collegamento via etere. Certo non avrà la stessa qualità del collegamento via cavo, ma mi lascia più libertà di movimento. Come fare allora a collegare due dispositivi mobili in modo che l’osservatore veda le immagini della fotocamera dell’APR, ma non possa interagirvi? Io faccio il mirroring dello schermo. Ti dirò come faccio io, ma non sarà sicuramente l’unico modo e magari nemmeno il migliore. Però funziona.

Ti mostrerò il procedimento facendo riferimento ai seguenti dispositivi mobili:
– Il pilota utilizzerà un dispositivo Android collegato al radiocomando e lo chiamerò “dispositivo del pilota”.
– L’amico del pilota utilizzerà anch’egli un dispositivo Android e lo chiamerò “dispositivo dell’osservatore”.
Su entrambi i dispositivi deve essere installata un’applicazione per il mirroring dello schermo. Io utilizzo ApowerMirror scaricabile da Google Play. Se ne hai altre da consigliare, sentiti libero di farlo. Tanto non prendo un euro da nessun produttore di app…
Per questo tipo di applicazioni è fondamentale essere collegati alla stessa rete wi-fi, ma non ti preoccupare, non è necessario che ti porti appresso un router. Ormai tutti i dispositivi mobili, smartphone, tablet, ecc, hanno la possibilità di creare un “hotspot wi-fi”, ossia danno la possibilità ad altri dispositivi di condividere la connessione internet del dispositivo che funge da hotspot (o meglio, da access point). Non me ne vogliano i più esperti, per questa banale semplificazione. Quando avrai collegato i due dispositivi alla stessa rete, allora potrai avviare ApowerMirror e dare inizio al mirroring dello schermo. Quello che accadrà è che lo schermo del dispositivo del pilota verrà riprodotto anche sullo schermo del dispositivo dell’osservatore. Chiaramente, se il pilota attiverà la visualizzazione della mappa satellitare, allora anche l’osservatore la vedrà. Nel caso ci si debba far assistere da un osservatore, tipicamente è perché quest’ultimo dovrà guardare le immagini trasmesse dalla fotocamera. Il pilota, quindi dovrà tenere attivata tale visualizzazione anche sul suo dispositivo. In realtà, tale condizione non è nemmeno tanto vincolante; infatti il pilota avrà comunque disponibile la telemetria e sarà impegnato a guardare l’APR anziché lo schermo.
Ora ti mostro tutti i passi che dovresti fare per attivare il mirroring. Nelle immagini seguenti vedrai un tablet come dispositivo del pilota, mentre il  dispositivo dell’osservatore sarà uno smartphone.

1 – Attiva l’hotspot su uno dei due dispositivi. Per non sovraccaricare di lavoro il dispositivo del pilota, preferisco attivarlo sul dispositivo dell’osservatore.

2 – Connetti il dispositivo del pilota all’hotspot.

3 – Avvia ApowerMirror sul dispositivo dell’osservatore.

4 – Attiva ApowerMirror sul dispositivo del pilota ed avvia la ricerca dell’altro dispositivo.

5 – Una volta trovato il dispositivo dell’osservatore, tocca la relativa icona (sul dispositivo del pilota).

6 – Sul dispositivo dell’osservatore apparirà quello che vede il pilota.

7 – Sul dispositivo del pilota avvia l’applicazione di volo.

8 – Dovresti vedere la stessa schermata anche sul dispositivo dell’osservatore.

D’ora in poi, finché uno dei due dispositivi non esce da ApowerMirror, l’osservatore vedrà le stesse cose del pilota. Naturalmente solo il pilota potrà interagire con i comandi a schermo.
Con un breve video, che trovi qui sotto, voglio mostrarti il risultato della procedura che ti ho appena descritto. Ho simulato un’ispezione di un tetto ed il video deriva dalla registrazione dello schermo del dispositivo dell’osservatore. In questo caso, quindi, sul dispositivo dell’osservatore avevo in esecuzione sia ApowerMirror, sia un’applicazione per la registrazione dello schermo. Naturalmente, in un caso “reale” non è necessario registrare lo schermo dell’osservatore in quanto ci pensa il pilota ad avviare la registrazione ed a salvare tutto sulla memoria dell’APR; infatti nel video si vede che ho avviato una registrazione mentre pilotavo.

Se vuoi darmi dei suggerimenti o se vuoi condividere la tua esperienza, non esitare a contattarmi. Ti ricordo che mi trovi anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta). Nel canale troverai anche articoli ed informazioni provenienti da altre fonti.

Come anticipato, qui sotto trovi il video.

Alla prossima. Ciao!

 

L’EFFETTO DI TRASCINAMENTO SUI FOTOGRAMMI IN UN RILIEVO FOTOGRAMMETRICO

11 Luglio 2019/in FOTOGRAMMETRIA-RILIEVI

Ciao,
in questo articolo ti voglio parlare del “trascinamento”, ossia dell’effetto che si forma sui fotogrammi quando c’è un movimento relativo tra la camera ed il soggetto durante lo scatto. In tali condizioni, il trascinamento è inevitabile in quanto il tempo d’apertura dell’otturatore, per piccolo che sia, fa sì che uno stesso punto del soggetto impressioni zone contigue del sensore. Poi vedremo che, nella realtà, gli effetti del trascinamento non si manifestano sempre e si può ricorrere a dei “trucchetti” per minimizzarne gli effetti o addirittura annullarli. Alla fine dell’articolo troverai un foglio Excel che ti permetterà di calcolare il trascinamento sul sensore, ma prima vediamo un po’ di teoria. Non mi inventerò nulla di nuovo, infatti nella trattazione prenderò spunto da una bellissima pubblicazione della Zanichelli della quale ti lascerò il link. Le formule e le immagini di questo articolo sono tratte da tale pubblicazione. In calce troverai anche un video che ho caricato su YouTube nel quale illustro l’argomento più nel dettaglio e mostro gli effetti su un modello realizzato con Agisoft Metashape.
Facendo riferimento all’immagine seguente, i punti O1 e O1’ rappresentano i centri di presa dai quali, idealmente, passano tutte le visuali; p è la lunghezza focale, mentre H è l’altezza di volo. Durante il tempo di apertura dell’otturatore Δτ, l’APR compie uno spazio Δb ad una velocità v ed uno stesso punto del soggetto viene riprodotto sul sensore in più posizioni contigue. Questo accade perché, durante lo scatto, l’otturatore rimane aperto e la luce che penetra dall’obiettivo continua ad incidere sul sensore in posizioni diverse, ma vicine tra loro. Idealmente, è come se la visuale fosse una matita incernierata nei punti A e O1 e l’avanzamento del sensore facesse in modo che su di esso si tracci una linea. La lunghezza della linea λ rappresenta il trascinamento.
Dal punto di vista matematico, il trascinamento è calcolabile attraverso una proporzione tra triangoli simili:

dalla quale si ricava:

Δb è funzione della velocità di crociera e del tempo di apertura dell’otturatore:

La formulazione finale diventa, quindi:

Nel mio foglio Excel che trovi in calce non ho fatto altro che inserire questa formula per calcolare λ. Una volta noto il suo valore, è possibile valutarne l’incidenza sulla qualità dello scatto mettendolo in relazione con le caratteristiche del sensore della fotocamera. Gli effetti del trascinamento diventano ininfluenti nel momento in cui λ è pari o inferiore alla dimensione di un pixel. Infatti è come dire che un punto del soggetto non fa a tempo ad impressionare due pixel adiacenti prima che l’otturatore si chiuda. Chiaramente, se la linea tracciata dalla matita virtuale è più piccola di un pixel è come se in realtà fosse stato tracciato un punto. Un punto più piccolo di un pixel (o al massimo uguale).
Nel mio lavoro utilizzo un Phantom 4 Pro, quindi ho sviluppato i calcoli con riferimento alla fotocamera montata su tale APR. Comunque puoi inserire i dati relativi ad altri sensori semplicemente sostituendo i valori riportati nelle caselle azzurre. Troverai anche una scheda relativa alla Sony alpha 6000 perché è l’altra fotocamera che uso. Questa ha l’ottica con focale variabile tra 16 e 50 mm, quindi il trascinamento sarà diverso a seconda della focale scelta. Quando montavo tale fotocamera sul mio DJI S900 utilizzavo una focale di 33 mm corrispondente a circa 50 mm nel formato full frame. La focale 50 mm è definita “normale” e, in teoria, il campo visivo dovrebbe avvicinarsi a quello dell’occhio umano.
Al variare dell’altezza di volo e della velocità di crociera si può notare come vari il trascinamento, a parità di tempo di apertura, naturalmente. Per minimizzare il trascinamento, la combinazione ottimale sarebbe quella di volare il più in alto possibile, impostare tempi di apertura bassi e velocità basse. Nel caso di ottiche a focale variabile è meglio una focale corta. Purtroppo non sempre è possibile soddisfare tutte le condizioni. Altezze elevate potrebbero non garantire un adeguato GSD (Ground Sample Distance); tempi di apertura troppo bassi potrebbero sottoesporre i fotogrammi e velocità dell’APR basse prolungherebbero le missioni fin oltre il tempo di scarica della batteria. Va trovato un compromesso ed il foglio Excel spero possa aiutarti nella scelta dei parametri da variare. Personalmente, preferisco mantenere inalterata l’altezza di volo prevista dalla missione e, nel caso non vi sia un’illuminazione che mi permetta di ottenere tempi d’apertura corti, diminuisco la velocità di crociera. Nel foglio Excel, per il Phantom 4 Pro, troverai inserita un’altezza di volo di 50 m ed una velocità di 5 m/s. E’ solo un esempio per mostrarti che con un tempo di esposizione di 1/320 di secondo si otterrebbe un trascinamento di 2 pixels (oppure 1 pixel, se escludiamo il punto iniziale). La prova che descrivevo nel mio ultimo post, relativo all’influenza della sovrapposizione degli scatti fotografici sull’accuratezza del rilievo, partiva da degli scatti con tempo di esposizione di 1/400 di secondo con ISO 100. Dal foglio Excel puoi vedere che il trascinamento, in questo caso, è nullo (lunghezza inferiore ad 1 pixel); ed infatti Metashape restituiva un indice di qualità delle immagini molto elevato (tra 0.83 e 0.89).
Ora, invece, voglio mostrarti gli effetti del trascinamento tramite un semplice confronto tra due fotografie.

Le foto derivano dall’esecuzione della stessa missione di volo automatico eseguita due volte. Nelle due missioni ho impostato la fotocamera ad una sensibilità ISO 100 con priorità all’apertura del diaframma. Nella prima missione ho impostato un’apertura F2.8, mentre nella seconda F11. La fotocamera, quindi, poteva scegliere solo il tempo d’esposizione. Naturalmente, con una grande apertura del diaframma, la fotocamera ha scelto un tempo corto (1/1000 sec), mentre con un’apertura piccola il tempo d’esposizione è aumentato (1/60 sec). L’altezza di volo, in entrambe le missioni, è stata impostata a 50 m. Utilizzando il foglio Excel si può notare che nel primo caso il trascinamento è di 1 pixel, mentre nel secondo caso di 7 pixels; senza entrare nel dettaglio, posso dirti che corrispondono a 9.6 cm (=λ*GSD).

Osservando il tetto della baita si vede subito la differenza di dettaglio; ancora di più se faccio un ingrandimento.

Si notano subito alcune differenze sostanziali. La seconda immagine è decisamente “mossa” e “sovraesposta”. Con un cerchietto blu ho evidenziato come una macchiolina rotonda abbia assunto una forma allungata a causa del trascinamento. Tale effetto è esteso a tutta la foto e, naturalmente, avviene lungo la direzione del moto dell’APR.
La sovraesposizione della seconda foto non è dovuta al fatto che la fotocamera abbia raggiunto le impostazioni limite; infatti lo scatto è avvenuto con un tempo d’esposizione di 1/60 di secondo quando in realtà la fotocamera poteva scegliere un tempo più breve per restituire una foto con una corretta esposizione. Quindi cosa è successo? In condizioni statiche, probabilmente, la foto sarebbe risultata con una corretta esposizione, ma con l’APR in movimento qualcosa è cambiato. Fissati gli ISO e l’apertura del diaframma, la fotocamera determina il tempo di apertura basandosi sull’intensità della luce che passa attraverso l’obiettivo (TTL=Through The Lenses) e misurata dall’esposimetro interno. Si tratta, quindi, di una luce riflessa dall’oggetto che viene letta dall’esposimetro ed interpretata dal firmware della fotocamera per determinare il tempo di esposizione. La misura dell’intensità della luce avviene poco prima dell’apertura dell’otturatore valutandola in una o più zone del soggetto ripreso (dipende da come è settata la fotocamera, ma il discorso non cambia). Subito dopo, il firmware determina il tempo di esposizione ed apre l’otturatore. Se non ci fosse il movimento relativo tra la fotocamera ed il soggetto, i pixels del sensore verrebbero investiti esattamente dall’intensità luminosa misurata e si otterrebbe una foto esposta correttamente. Se, invece, esiste un movimento relativo, la corrispondenza tra l’intensità luminosa misurata ed i pixels in cui è stata misurata la si ha solo all’inizio del tempo di apertura, mentre negli istanti successivi (fino alla chiusura dell’otturatore) uno stesso pixel verrà investito dalla luce proveniente da zone diverse del soggetto (rispetto a quella dove era stata effettuata la misura). Per capire meglio, guarda l’immagine seguente.

Al momento dell’apertura, il pixel A’ viene eccitato dalla luce proveniente dal punto A del soggetto (utilizzato per il calcolo del tempo di esposizione), mentre al termine del tempo di apertura il pixel A’ è investito dalla luce riflessa dal punto B. Uno stesso pixel, quindi, viene investito dalla luce riflessa da punti diversi del soggetto creando una “falsa esposizione” del fotogramma, non corretta. Nella fattispecie, il risultato è stata una foto sovraesposta.

In un rilievo fotogrammetrico, evitare il trascinamento significa riconoscere bene il centro dei GCP o di altri punti utilizzati come tali e rappresentati nelle foto. Questo aiuta tantissimo nel posizionamento delle bandierine dei markers all’interno del software.   
Va detto, comunque, che vi sono obiettivi e camere in grado di compensare il trascinamento. La Sony alpha 6000, ad esempio, ha uno stabilizzatore ottico meccanico incorporato nell’obiettivo. Funziona molto bene soprattutto se il soggetto è lontano, come nel caso dell’aerofotogrammetria (in genere). Altre camere, invece, hanno uno stabilizzatore elettronico, come il Parrot Anafi. In altri casi, addirittura, è la gimbal stessa che ruota durante lo scatto proprio per fare in modo che il trascinamento venga annullato. Il Phantom 4, ad esempio, dispone di questa funzionalità sullo yaw, ma non credo sia applicabile per tempi di scatto troppo corti. Quando ragioni su frazioni di secondo è difficile che la meccanica della gimbal sia così reattiva. Il principio di funzionamento però è molto semplice e consiste nel ruotare il sensore, durante il tempo di apertura dell’otturatore, in modo da far sì che i pixels impressionati sul sensore da un oggetto non cambino. Se ci pensate, è quello che facciamo noi quando guardiamo un oggetto mentre ci muoviamo e ruotiamo la testa per vederlo fermo anziché in movimento. Beh! Forse tanto semplice non è, per una macchina. Chissà quanto ci ha messo il nostro cervello ad impararlo.
Durante un rilievo è possibile annullare l’effetto del trascinamento adottando una tecnica “stop&go”, o meglio, “stop&scatta&go”. In pratica, durante l’esecuzione della missione, l’APR si ferma prima di ogni scatto, scatta e poi riparte. Chiaramente il consumo di batteria sarà maggiore. Nel caso dei multicotteri è una procedura che può essere eseguita senza problemi in quanto si tratta di aeromobili in grado di rimanere in hovering. Diventa più complicato, invece, nel caso di APR tuttala. Non vorrei scrivere una fesseria, ma credo che l’Ebee della Sensefly esegua lo stop&scatta&go modificando la traiettoria in senso verticale. Prima di ogni scatto l’APR dà motore e si alza di quota, poi toglie motore e rallenta fino quasi a fermarsi, scatta e poi dà nuovamente motore, ridiscendendo. Ondeggia. Purtroppo non ho un Ebee. Sarebbe bello se qualcuno mi desse un riscontro su tale modalità di funzionamento.

Nel caso della fotogrammetria terrestre gli oggetti ripresi solitamente sono fermi e la macchina fotografica è ferma, quindi il trascinamento si annulla. Se sei amante della fotogrammetria di oggetti e questi li posizioni su un piatto girevole motorizzato, ti raccomando di fermarlo prima di ogni scatto.
Avrai notato che nell’articolo sono partito subito col riferirmi a sensori ed a pixels, ma il trascinamento non è tipico solo della fotografia digitale. Nel caso della fotografica analogica, dove si fa uso della pellicola, il concetto non è molto diverso. Invece di fare riferimento alla dimensione di un pixel, si deve fare riferimento alla dimensione delle particelle che compongono l’emulsione fotografica: la grana. Pellicole poco sensibili (ISO 100, ad esempio) hanno una grana fine, mentre pellicole molto sensibili (ISO 800, ed esempio) hanno una grana grossa. Occhio però agli ISO; più sono alti e minore sarà il dettaglio dello scatto, proprio a causa della dimensione della grana.

Bene. Credo di averti detto un po’ tutto riguardo l’effetto del trascinamento. O almeno quello che so io. Se ti va di dirmi la tua, oppure se vuoi condividere una tua esperienza, non esitare a contattarmi. Ti ricordo che mi trovi anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta). Nel canale troverai anche articoli ed informazioni provenienti da altre fonti.

Come detto, qui sotto trovi il link al download del foglio Excel e alla pubblicazione della Zanichelli.

Alla prossima. Ciao!

CALCOLO TRASCINAMENTO
LA PRESA DEI FOTOGRAMMI-CANNAROZZO-ZANICHELLI

LA SOVRAPPOSIZIONE DEGLI SCATTI FOTOGRAFICI IN UN RILIEVO FOTOGRAMMETRICO

21 Giugno 2019/in FOTOGRAMMETRIA-RILIEVI

Ciao! Oggi ti parlerò dell’importanza della sovrapposizione degli scatti fotografici in un rilievo fotogrammetrico. Come al solito, farò una breve introduzione e poi ti rimanderò alla visione del video che trovi in calce all’articolo.
Come sappiamo, la tecnica della fotogrammetria utilizza le informazioni contenute negli scatti fotografici per creare dei modelli tridimensionali del soggetto ritratto. I fattori che possono influire sull’accuratezza del modello restituito sono molteplici, in primis la qualità degli scatti, ma non solo. Gli scatti possono anche avere un’elevata qualità dal punto di vista della nitidezza, luminosità, contrasto, ecc, ma se tra di loro non sono “legati” non ci farai proprio nulla. Qui entra in gioco la sovrapposizione tra le foto e tra le corrispondenti superfici dell’oggetto riprodotte nelle foto. Nel caso specifico voglio riferirmi ad un rilievo aerofotogrammetrico da drone per la restituzione di un modello tridimensionale del territorio. Solitamente, un rilievo di questo tipo viene eseguito facendo percorrere all’APR una rotta a forma di serpentina studiata in modo tale che gli scatti posti lungo due strisciate adiacenti si sovrappongano di una certa percentuale. O meglio, a sovrapporsi sono le superfici riprodotte: i cosiddetti footprints. La sovrapposizione laterale, quindi, la si ottiene semplicemente variando la distanza tra le strisciate quindi cambiando la geometria della rotta. La sovrapposizione longitudinale, invece, varia al variare dell’intervallo tra gli scatti e della velocità dell’APR. Le combinazioni possibili sono molteplici e quella scelta deve necessariamente tenere conto del fatto che la fotocamera scatterà delle foto con l’APR in movimento, quindi con i rischi che ne conseguono in merito alla qualità degli scatti. Oddio, posso anche fare in modo che il drone si fermi ad ogni scatto, ma personalmente non lo ho mai fatto per via dell’elevato consumo di batterie. Piuttosto sceglierei delle velocità basse e, quindi, intervalli tra gli scatti maggiori.
Ebbene, la prova che ho fatto per valutare l’accuratezza di un rilievo fotogrammetrico al variare delle percentuali di sovrapposizione longitudinale e trasversale, viene descritta nel video allegato e consiste nel rilievo di una zona prativa con modesti cambi di quota. La giornata era soleggiata, le ombre cortissime in quanto ho eseguito il volo nelle prime ore del pomeriggio e ne sono usciti degli scatti con una qualità compresa tra 0.83 e 0.89 (valutata con Metashape).
Ho scattato foto con sovrapposizioni dell’80% in entrambe le direzioni e poi ho eliminato delle strisciate oppure alternato gli scatti in modo da portare le sovrapposizioni al 60% in una o nell’altra direzione o in entrambe. In pratica, prendendo tutte o solo alcune foto, ho creato quattro data set su cui lavorare per ottenere altrettanti modelli. Ecco le immagini delle quattro elaborazioni.

Sovrapposizione longitudinale 80% – Sovrapposizione trasversale 80%
Sovrapposizione longitudinale 80% – Sovrapposizione trasversale 60%

Sovrapposizione longitudinale 60% – Sovrapposizione trasversale 60%
Sovrapposizione longitudinale 60% – Sovrapposizione trasversale 80%

A questo punto ho ottenuto quattro modelli distinti. Nel video ti spiego le caratteristiche di ognuno in termini di tempi di elaborazione e numero di punti nella nuvola sparsa e densa. Questi dati li puoi vedere anche nel foglio Excel scaricabile qui sotto.
Una cosa che non ti ho ancora detto è che le elaborazioni sono state eseguite senza prendere in considerazione i GCP (Ground Control Points). Sul terreno ci sono, ma nei modelli non li ho considerati, ossia in Metashape non ho posizionato le classiche bandierine che mi permettono di eseguire l’orientamento esterno assoluto degli scatti. Questa scelta è dettata dal fatto che il mio scopo è quello di valutare l’accuratezza del rilievo aerofotogrammetrico al variare della percentuale di sovrapposizione tra gli scatti, quindi se c’è un errore, voglio tenermelo e valutarlo. Se ottimizzassi l’allineamento dei fotogrammi tramite i GCP, Metashape correggerebbe le deformazioni del secondo ordine e l’interpretazione degli errori imputabili alla variazione delle percentuali di sovrapposizione diverrebbe più complicata. Quello che ho chiesto a Metashape, quindi, è di individuare i punti omologhi all’interno delle zone comuni tra gli scatti e poi di utilizzarli per definire l’orientamento interno della camera e l’orientamento esterno relativo tra gli scatti. Gli scatti, quindi, vengono posti in relazione l’uno rispetto all’altro andando a comporre i mosaici che vedete nelle immagini sopra.
Ok! Ma come faccio allora a georeferenziare e scalare le nuvole dense? Qui ci viene in aiuto Cloud Compare. All’interno di tale software è possibile importare la nuvola di punti elaborata da Metashape e metterla in relazione con una seconda nuvola costituita dal rilievo dei GCP effettuato con una strumentazione satellitare. In pratica, ad ogni GCP rilevato faccio corrispondere un punto della nuvola rappresentante il centro del GCP. Grazie a questo legame tra i punti del rilievo ed i punti della nuvola, Cloud Compare può effettuare una trasformazione a sette parametri, ossia una rototraslazione con variazione di scala della nuvola densa. Nelle due immagini qui sotto puoi vedere i passaggi di tale processo.

Rilievo dei GCP (a sinistra) e nuvola densa (a destra)
Creazione delle corrispondenze tra i punti delle due nuvole.
Risultato della trasformazione a sette parametri.

A questo punto ho potuto valutare l’accuratezza del rilievo fotogrammetrico andando a “prelevare” le coordinate dei punti della nuvola rappresentanti il centro del GCP. Se non ne trovavo uno nel centro esatto, prendevo quello più vicino. Le nuvole erano talmente dense che l’errore era del tutto trascurabile. Inoltre, almeno per la quota, il centro del GCP era del tutto analogo ai punti posti a qualche centimetro di distanza. Questo “prelievo” lo si può fare con lo strumento point list picking di Cloud Compare.

Fatta questa operazione per tutti i GCP, ho copiato le coordinate nel foglio Excel e le ho messe a confronto con quelle del rilievo GNSS. Stesso procedimento per tutte quattro le nuvole.
Dall’analisi dei risultati è emerso che le accuratezze migliori del rilievo aerofotogrammetrico corrispondono alle due nuvole ottenute con un’alta percentuale di sovrapposizione trasversale (80%). Variando la percentuale di sovrapposizione longitudinale (passando da 80% a 60%), a parità di quella trasversale (80% oppure 60%), non si ottengono grosse variazioni dell’accuratezza. Almeno per quanto riguarda la quota. Dal punto di vista planimetrico la combinazione 60%-60% si discosta abbondantemente dai valori ottenuti col rilievo GNSS, mentre le altre tre combinazioni se la giocano alla pari (+ o -). Detta in parole povere, dalla prova è emerso che un maggior numero di strisciate fornisce un rilievo più accurato rispetto ad avere scatti a distanza ravvicinata lungo le strisciate. Qui sotto riporto un grafico relativo agli scarti delle quote, mentre nel foglio Excel trovate la trattazione completa anche per le coordinate planimetriche.

La linea tratteggiata nera rappresenta un ulteriore approfondimento. Infatti il passo successivo è stato quello di ridurre le deformazioni del secondo ordine nella nuvola ottenuta con percentuali di sovrapposizione 80%-80%. Per fare questo ho inserito le bandierine di Metashape sui GCP ed ho ottimizzato l’allineamento degli scatti. In questo modo Metashape ha effettuato l’orientamento esterno assoluto andando anche a ridurre le deformazioni del secondo ordine. In pratica quello che fa il software è di risolvere nuovamente le equazioni di collinearità, questa volta utilizzando come dati le coordinate dei GCP e come incognite (di nuovo) i parametri di calibrazione della camera. L’accuratezza del rilievo è migliorata ulteriormente, almeno in corrispondenza dei 13 GCP.
Per estendere l’analisi a tutti i punti delle nuvole, ho utilizzato una funzione di Cloude Compare che permette di valutare la distanza tra i punti di due nuvole. Quindi, per ognuna delle quattro nuvole elaborate inizialmente, ho valutato la distanza lungo l’asse zeta tra i punti di tali nuvole ed i punti della nuvola ottimizzata. Scusate le ripetizioni… I risultati estesi a tutta la superficie coperta dal rilievo rispecchiano quelli riportati nel grafico precedente: le distanze minori sono relative a percentuali di sovrapposizione trasversali elevate.

Distanza lungo zeta tra la nuvola ottimizzata e la nuvola 80%-80% non ottimizzata.

Bene. Ora ti rimando alla visione del video nel quale ho trattato più esaustivamente l’argomento. Ci tengo a precisare che questi risultati non vanno presi come “oro colato”. Si tratta di una singola prova i cui risultati potrebbero essere smentiti se si considerasse ad esempio un’altra conformazione del terreno, magari con maggiori dislivelli. Apprezzerei molto se volessi riportarmi le tue esperienze in modo da costruire assieme un quadro più completo ed esaustivo di come influiscono sull’accuratezza le variabili in gioco.
Come detto, qui sotto trovi il link al download del foglio Excel ed il video.

Ti ricordo che mi trovi anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Ciao!

INTEGRAZIONE
Sì, lo so. Ho già salutato. Il fatto è che dopo aver scritto l’articolo ho trovato una bella pubblicazione su MDPI che tratta proprio dell’influenza sull’accuratezza dei parametri utilizzati nel rilievo fotogrammetrico. Se volete scaricarla, cliccate QUI.

Seifert, E.; Seifert, S.; Vogt, H.; Drew, D.; van Aardt, J.; Kunneke, A.; Seifert, T. Influence of Drone Altitude, Image Overlap, and Optical Sensor Resolution on Multi-View Reconstruction of Forest Images. Remote Sens. 2019, 11, 1252.

ELABORAZIONE DATI

ACCURATEZZA E PRECISIONE DELLA QUOTA ORTOMETRICA NEI RILIEVI SATELLITARI GNSS

9 Giugno 2019/in FOTOGRAMMETRIA-RILIEVI

Ok. Lo so. Hai letto il titolo dell’articolo ed hai subito storto il naso. Sembra che al suo interno ci siano delle incongruenze. Accuratezza=precisione? Satellitari=GNSS? Quota ortometrica o altezza ellissoidica? Ora vi spiego…
Tutto è nato da una chiacchierata con un paio di tecnici a proposito della determinazione della quota ortometrica dei punti rilevati con una strumentazione satellitare. Uno diceva che le quote ottenute non sono per niente affidabili e l’altro riportava addirittura errori quantificabili in 30 cm ed oltre. Siamo tutti d’accordo sul fatto che le attività pertinenti alla misura delle quote siano le livellazioni e non i rilievi satellitari (in realtà in topografia si misurano i dislivelli e poi si deducono le quote attraverso dei caposaldi di livellazione), tuttavia non mi sentirei di dire che le quote dedotte da misure satellitari siano del tutto da buttare. Dipende da cosa devi farci. Stai facendo un monitoraggio di una struttura? Stai facendo un rilievo plano-altimetrico di un versante? La prova che ti descriverò nel seguito ti aiuterà nel decidere se utilizzare un livello o una strumentazione satellitare a seconda dell’accuratezza che vorrai ottenere dal tuo rilievo.
Lo strumento satellitare non lo chiamerò semplicemente GPS perché in realtà, come sappiamo, ci sono anche altre costellazioni di satelliti che vengono rese disponibili per gli scopi civili. La mia strumentazione, ad esempio, capta anche i segnali della costellazione GLONASS. Quindi mi riferirò alla strumentazione satellitare o GNSS (Global Navigation Satellite System) indifferentemente e non alla GPS in particolare.
Inoltre, mi riferirò all’accuratezza per descrivere quanto la misura sia vicina al suo valore reale (o assunto come tale), mentre la precisione si riferisce alla ripetitività della misura. Le misure sono precise quando si discostano poco l’una dall’altra, ma magari sono lontane dal valore reale e quindi sono inaccurate. La seguente figura chiarisce il concetto.

Risultati immagini per accuratezza precisione
www.esperimentanda.com

Veniamo alla prova. Lo scopo è quello di confrontare la quota ortometrica dedotta dall’elaborazione di un rilievo GNSS con quella ottenuta riferendosi ai caposaldi di livellazione IGM. Operativamente la prova si è svolta nel seguente modo:

  • Ho scelto 10 caposaldi appartenenti alla rete di livellazione di alta precisione dell’IGM e mi sono scaricato le monografie. Non mi sono spostato molto, infatti li ho scelti tutti nell’intorno di 15 Km dal mio ufficio ed erano disposti lungo una strada statale ad intervalli di circa 1 Km.

I caposaldi, in genere, sono materializzati con dei “bulloni” in ghisa cementati su una parete verticale (infatti servono per determinare le quote, non le posizioni planimetriche…) o con dei centrini di superficie.

Bullone.
Bullone.
  • Scostandomi dal caposaldo, ho rilevato un punto con lo strumento GNSS. Ho dovuto spostarmi perché i caposaldi, essendo fissati a parete, non erano direttamente rilevabili appoggiandoci sopra la punta della palina e la misura GNSS sarebbe probabilmente stata influenzata dall’effetto del multipath del segnale. I centrini di superficie, al contrario, ho potuto rilevarli in questo modo. La palina era tenuta in posizione dal bipiede e prima di rilevare il punto ho atteso circa 5 minuti. Ogni punto lo ho rilevato 10 volte ad intervalli di circa 5 secondi. Lo strumento era un Leica 1200+ ed il rilievo è stato condotto in modalità NRTK ricevendo le correzioni differenziali dalla rete di stazioni permanenti TPOS della Provincia Autonoma di Trento. Ho utilizzato il mountpoint IMAX3 e la baseline aveva una lunghezza massima di circa 15.3 Km. La giornata era uggiosa e ad un certo punto ha cominciato anche a piovere. L’indice Kp, indicatore dell’attività geomagnetica terrestre, aveva un valore di 1 su una scala di 9, quindi un valore ottimale. Il numero di satelliti acquisiti era variabile tra 9 e 13.
  • Durante i 5 minuti nei quali l’antenna rimaneva immobile in posizione sul punto, ho rilevato il dislivello tra il caposaldo di livellazione ed il punto battuto. Mi sono servito di un livello laser Leica Lino L2 avente una precisione di livellamento di +-1 mm ogni 5 m (dichiarata dal costruttore).
  • Facendo riferimento all’immagine seguente, la quota ortometrica del punto battuto (Qo,calc) è data dalla quota del caposaldo (Qc) meno il dislivello (delta Q). Va detto che, nella trattazione delle misure, ho considerato il geoide come una superficie orizzontale nell’intorno del caposaldo (linea grigia tratteggiata). Questo in virtù del fatto che la distanza tra caposaldo e punto battuto era al massimo di una decina di metri. Teoricamente, nel punto battuto, la quota ortometrica sarebbe quella che ho indicato con Qo in figura.
  • Terminato il rilievo dei 10 caposaldi ho elaborato i dati utilizzando come sistema di riferimento cartografico l’ETRF2000, per la posizione planimetrica, e le quote ortometriche dedotte dai grigliati .gk2 forniti dall’IGM. Visto che ogni punto vicino al caposaldo è stato rilevato 10 volte, ho ottenuto 10 valori della quota ortometrica dei quali ho calcolato la media aritmetica e lo scarto quadratico medio. Non ho escluso nessuna delle misure acquisite, quindi la media è stata calcolata utilizzando tutti i dati, anche quelli estremi.

Nell’immagine seguente puoi vedere un estratto del foglio Excel che ho utilizzato per analizzare le misure. Se ti interessa, puoi scaricarlo in fondo all’articolo.

Dall’analisi dei risultati è emerso che l’accuratezza delle quote ortometriche è variabile tra un -6 cm e 0 cm (colonna in rosso). Nei grafici ho riportato con dei pallini blu le quote ortometriche dedotte da ogni singola battuta, in verde il loro valore medio ed in rosso i limiti dello scarto quadratico medio. E’ interessante notare come, nel caso del primo caposaldo, le battute tendessero a “fluttuare” attorno al valore medio. Probabilmente, se avessi continuato le misure, si sarebbero attestate su tale valore. La quota di questo caposaldo è risultata essere la meno accurata.
Nel caso del caposado SC. MATERNA MOLINA, le misure presentano una buona ripetitività, tranne la prima e l’ultima. I valori sono tutti contenuti entro 2 cm di scarto.
Nel caso del caposaldo posto al KM 30.070, le misure saltano da un valore all’altro, ma la loro differenza è di 1 cm, quindi la causa dei continui salti è da ricercarsi nella precisione strumentale. Parliamo di 1 cm visto da 20.000 Km di distanza!
Per il caposaldo al KM 34.960 tutte le misure sono uguali.
Analisi simili possono essere condotte per gli altri punti nei pressi degli altri caposaldi.
Per correttezza va detto anche che la livellazione che ho eseguito con il livello laser per calcolare la quota dei punti partendo da quella del caposaldo, non è certo una livellazione di alta precisione. Lo stesso raggio laser ha uno spessore di 2-3 mm. Comunque sia, direi che i risultati non sono male. Ripeto. Dipende cosa devi farci con queste misure. Se ne avete la possibilità, fate sempre un controllo delle quote del rilievo trasportando la quota di un caposaldo. Gli errori che potrebbero influenzare i risultati del vostro rilievo non sono tanto quelli legati all’elaborazione o alla cattiva interpolazione dei grigliati IGM per dedurre la quota ortometrica. In genere i software interpolatori (Convergo, Topko, Meridiana, ecc.) restituiscono tutti dei valori simili; differiscono al massimo di 4-5 mm. L’errore potrebbe invece riguardare la determinazione dell’altezza ellissoidica (He nell’immagine riportata sotto). Se i disturbi ionosferici sono elevati, se la baseline è troppo lunga, se interviene il cosiddetto multipath, se la distribuzione dei satelliti non è ottimale, ecc., potresti ottenere delle coordinate geografiche poco accurate ed allo stesso modo anche un’altezza ellissoidica inaccurata. Da essa, sottraendo l’ondulazione del geoide (n), viene calcolata l’altezza ortometrica.


Se ti va di approfondire l’argomento riguardante il campo gravitazionale terrestre ed i modelli di geoide, puoi leggere un altro mio articolo e visionare il video ad esso collegato.

Ti ricordo che mi trovi anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Ciao!

QUOTE PUNTI GNSS

IL CAMPO GRAVITAZIONALE TERRESTRE E IL GEOIDE

31 Maggio 2019/in FOTOGRAMMETRIA-RILIEVI

Ciao!
Questa volta non scriverò un articolo, ma farò solo una breve presentazione del video che trovi qui sotto. Non ti preoccupare; ho preparato comunque una presentazione che ti permetterà di avere qualcosa di scritto da conservare (spero!).
Oggi ti parlerò del campo gravitazionale terrestre e del geoide. Il geoide riveste un’importanza notevole nel campo della topografia; infatti, quando si parla di livelli, di verticali, di quote ortometriche ci si riferisce indirettamente al geoide. Nelle slide e nel video allegati ho fatto una sintesi di alcuni documenti che avevo salvato sul PC tempo fa. Ne ho molti altri, ma quelli che trovate in bibliografia sono quelli che danno le nozioni basilari per capire di cosa si sta parlando ed affrontano l’argomento sia dal punto di vista analitico che dal punto di vista fisico. Nella mia presentazione sono partito da una blanda trattazione teorica per poi introdurre quelli che sono i risvolti pratici. Dalla formulazione teorica del campo gravitazionale terrestre passerò ai modelli di geoide fino ad arrivare ai datum globali e locali.
Questa non vuole essere una lezione, non ne sarei in grado. Spero, comunque, di essere riuscito a fare un sunto dell’argomento e di aver chiarito i concetti base.

Detto questo, ti lascio alla visione del video. Qui sotto trovi il link da dove scaricare le slide.

Ti ricordo che mi trovi anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Ciao!

IL CAMPO GRAVITAZIONALE TERRESTRE E IL GEOIDE

CHECK LIST PRE-VOLO E POST-VOLO NELL’UTILIZZO DI UN S.A.P.R.

20 Maggio 2019/in FOTOGRAMMETRIA-RILIEVI

Ciao! Oggi voglio parlarti della check list pre-volo e post-volo che utilizzo io nella mia attività con i S.A.P.R. (Sistemi Aeromobili a Pilotaggio Remoto). La check list non è un documento richiesto dall’ENAC in fase di registrazione del proprio S.A.P.R. tuttavia riveste una grande importanza dal punto di vista operativo. Nel mondo aeronautico, ma anche nella vita di tutti i giorni, le check list sono molto diffuse. Si pensi, ed esempio, alla lista della spesa, oppure a quando si preparano le valige per un viaggio. L’organizzazione e l’esecuzione di determinate operazioni in una certa sequenza fa parte della nostra vita. Nel caso dei S.A.P.R. (vi prego, non formalizziamoci sui termini, lasciatemi scrivere “droni” perché sono stufo di premere shift e punto) l’utilizzo delle check list permette di eseguire i controlli prima e dopo il volo con la garanzia di non dimenticare nessuna di quelle operazioni che siamo abituati a compiere. Il problema è proprio questo: l’abitudine. Infatti, quando si è abituati a compiere una determinata azione, l’attenzione che gli si dedica è sempre di meno ed alla fine scatta l’errore: persone che si avvicinano, carica del tablet insufficiente, eliche fissate male (soprattutto se si utilizzano di quelle fissate con un dado), ecc. Gli effetti possono essere anche molto gravi sia per il drone, sia per le persone.
La check list che trovate in allegato è stata elaborata sulla base di quanto contenuto nel manuale di volo del mio drone e nel fascicolo relativo all’analisi dei rischi redatta dall’operatore (io). A loro volta, questi due fascicoli derivano dalle risultanze dell’attività sperimentale condotta sul drone. Nel video che trovi in calce ti spiego ogni singolo punto della check list e faccio riferimento ai valori limite che non devono essere superati relativamente ad alcuni parametri. Questo elenco non è esaustivo e non è l’unico possibile; è solo quello che utilizzo io. Ho messo solo le cose che temo di dimenticare. Altre cose non le ho elencate perché, a mio avviso, fanno parte del normale utilizzo del drone e non mi sono sentito di inserirle. Ad esempio, indossare il corpetto ad alta visibilità con la scritta “Pilota di APR” (fa comunque parte delle misure preventive inserite nell’analisi dei rischi), oppure non lasciare la borsa di trasporto del drone vicino al punto home, ma depositarla ad almeno 4 m di distanza (durante il return to home è meglio dedicarsi ad osservare il drone piuttosto che mettersi a spostare la borsa in tutta fretta per non atterrarci sopra). Sono tutte cose che ho messo nell’analisi dei rischi, ma non nella check list.

Bene! Qui sotto trovi la check list in formato Word. Non prenderla come oro colato; è solo quella che utilizzo io. Ti metto anche il video che ho caricato su YouTube.
Di seguito metto anche alcuni link che potrebbero interessarti relativamente all’indice kp del quale ti parlo nel video.

https://www.swpc.noaa.gov/products/planetary-k-index

https://www.swpc.noaa.gov/products/3-day-geomagnetic-forecast

https://www.gfz-potsdam.de/en/kp-index/

Ti ricordo che mi trovi anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Ciao!

CHECK LIST
SCALA INTENSITA’ TEMPESTE GEOMAGNETICHE

MODELLAZIONE DI OGGETTI CON AGISOFT METASHAPE STANDARD E CLOUD COMPARE

15 Maggio 2019/in FOTOGRAMMETRIA-RILIEVI

Ciao!
In questo articolo e nei video allegati ti mostro come realizzare un modello tridimensionale di un oggetto utilizzando la tecnica della fotogrammetria. In particolare, farò uso di due software: Agisoft Metashape Standard e Cloud Compare. La soluzione di utilizzare questi due software permette di contenere i costi in quanto, attualmente, il primo ha un prezzo di circa 180 dollari, mentre il secondo è gratuito (se vuoi, puoi sempre fare una donazione). Metashape, nella versione Standard, non permette di utilizzare dei riferimenti tipo i markers o le scale bars, pertanto la scalatura dei modelli 3D all’interno di tale software non è possibile. Tale possibilità viene offerta solo nella versione Professional che attualmente ha un costo di circa 3500 dollari. Nella scalatura del modello alle dimensioni reali ci viene in aiuto Cloud Compare. Con tale software è possibile anche unire due o più nuvole “allineandole”. Nel caso specifico, l’oggetto è stato fotografato sia sopra che sotto e le due nuvole di punti ottenute con Metashape Standard sono state poi allineate e unite in Cloud Compare in modo da ottenere un modello che sembri sospeso in aria, senza base di appoggio. L’elaborazione potrebbe anche finire qui tuttavia la nuvola così ottenuta conterrà delle zone nelle quali si ha la sovrapposizione di punti derivanti da entrambi i modelli e si potrebbero notare delle differenze in termini di qualità visiva. La cosa è risolvibile andando a modificare le due nuvole tenendo solo le parti che presentano una qualità migliore.

I video allegati sono organizzati così:
– Nel primo video ti mostro come eseguire gli scatti fotografici. Ti spiego come ho fatto io ed a cosa ho prestato attenzione. Francamente penso che si sarebbe potuto migliorare molto la gestione delle luci. Uno studio fotografico sarebbe perfetto. Io mi sono accontentato del soggiorno di casa mia. Una volta eseguiti gli scatti, ti mostro come trattarli in Metashape per ottenere come output due nuvole di punti dense (non scalate alle dimensioni reali).
– Nel secondo video eseguirò la scalatura e la referenziazione dei modelli rispetto ad un sistema di riferimento scelto da me. Unirò le due nuvole e le registrerò.
– Nel terzo ed ultimo video vedrai come smembrare le due nuvole e tenere solo le parti più interessanti.

Qui di seguito trovi alcune immagini che ho salvato durante l’elaborazione.

Esecuzione degli scatti fotografici.
Nuvole di punti dei due modelli.
Scalatura dei modelli alle dimensioni reali.
Modelli scalati alle dimensioni reali.
Modello finito.

Cliccando sull’immagine seguente potrai esplorare il modello 3D.

Qui sotto trovai i link ai video che ho caricato su YouTube.

Ti ricordo che mi trovi anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale vi parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Ciao!

INFLUENZA DEL VENTO SULL’AREA DI BUFFER

1 Maggio 2019/in FOTOGRAMMETRIA-RILIEVI

Ciao! In questo articolo ti voglio mostrare come calcolare l’area di buffer in funzione della velocità del vento. L’area di buffer puoi immaginarla come una zona posta tutt’attorno all’area delle operazioni nella quale il volo può essere terminato in condizioni di sicurezza.

Sul calcolo dell’area di buffer e sul dimensionamento del cavo di vincolo è già intervenuta l’ENAC con la pubblicazione di un documento esplicativo: “CALCOLO AREA DI BUFFER E DIMENSIONAMENTO DEL CAVO DI VINCOLO – OPERAZIONI SPECIALIZZATE CRITICHE (art. 10.5)“. Alcune immagini contenute in questo articolo sono tratte dal documento ENAC.

Il documento dà degli spunti interessanti e rappresenta sicuramente un valido riferimento, tuttavia credo che meriti degli approfondimenti soprattutto in relazione all’influenza della velocità del vento sulla dimensione dell’area di buffer. La dimensione del buffer viene determinata come somma di due distanze:

  • La distanza percorsa dal drone a velocità costante tra il momento in cui si perde il controllo ed il momento in cui si attiva il sistema di terminazione del volo. Tale intervallo va assunto pari ad almeno 3 s.
  • La distanza percorsa dal drone durante la fase di caduta dall’altezza a cui volava fino a terra.

I due termini sopra dipendono dalla velocità orizzontale dell’APR che viene indicata come essere pari alla somma tra la velocità operativa massima dello stesso e la velocità del vento massimo ammesso.
Andiamo per gradi. Immaginiamo, per ora, che non ci sia vento. La velocità da considerare sarebbe solo quella del drone. La formula sopra, per varie velocità ed altezze dal suolo, condurrebbe ai valori riportati nella seguente tabella.

Se l’APR vola a 60 m di altezza ad una velocità di 5 m/s, il buffer deve essere ampio almeno 32 m. Puoi trovare la tabella nel file Excel allegato.
Per una velocità dell’APR di 20 m/s (che è quella massima di un DJI Phantom 4 Pro), la traiettoria di caduta da varie altezze sarebbe quella indicata in blu nell’immagine seguente, mentre quella in rosso è per una velocità di 10 m/s.

Facciamo ora un passo avanti. Cominciamo a considerare la velocità del vento.

Innanzi tutto la velocità del vento da considerare è quella relativa all’altezza di volo che, immagino, non sia nota al momento della perdita di controllo del drone. Il pilota più accorto, semmai, avrà misurato la velocità del vento prima di far decollare l’aeromobile ed avrà effettuato una misura ad altezza d’uomo (o donna…). In secondo luogo, non è sempre corretto considerare l’intero valore della velocità del vento. I multirotori, nella maggior parte dei casi, non sono aerodinamici e non vengono scarrocciati dal vento in coda tanto da poter mantenere la medesima velocità della corrente che li sospinge. Semmai solo una quota della velocità del vento si “trasferirà” all’APR. Nel caso di droni ad ala fissa, invece, il vento in coda li scarroccia per bene ed allora è corretto considerare l’intera intensità del vento, o quasi.
Si pongono, quindi, tre problemi:

  1. Come conoscere la velocità del vento al momento della perdita di controllo dell’APR?
  2. Come calcolare la velocità del vento in quota avendo nota quella a terra?
  3. Quanto influisce la velocità del vento su quella di un multirotore?

Per quanto riguarda il primo punto, il pilota intento a controllare il volo non credo possa permettersi di continuare a metter mano all’anemometro per controllare la velocità del vento. E’ auspicabile che lo abbia fatto prima di decollare, soprattutto se sta operando secondo gli scenari standard nei quali la velocità massima del vento è un pre-requisito da rispettare. Durante il volo, tuttavia, il pilota può tenere sotto controllo l’intensità del vento semplicemente confrontandola “a pelle” e “a vista” con quella misurata inizialmente. Raffiche che inizialmente non c’erano, aumento del vento rispetto al momento della misura, il movimento delle chiome degli alberi che aumenta. Secondo me, dopo un po’ che piloti, sono cose che osservi istintivamente e capisci se puoi proseguire il volo in sicurezza. Se senti o se vedi che il vento è aumentato rispetto al momento della misura, sai che il buffer dovrà essere più ampio rispetto a quanto avevi calcolato inizialmente.

Veniamo al secondo punto. La velocità del vento a terra è minore di quella in quota. Chiaramente la corrente d’aria che sfiora il suolo viene rallentata e lo fa in modo sempre più marcato man mano che aumenta la scabrezza della superficie. Nella aree urbane il vento ha una velocità inferiore rispetto a quella che ha nelle aree prive di ostacoli. Inoltre, a quote più alte la scabrezza perde il suo effetto e la corrente aumenta di velocità. Il tutto viene efficacemente rappresentato da un coefficiente detto di “esposizione”. Ne esistono diverse formulazioni. Quella che vi mostro è tratta dalle Norme Tecniche sulle Costruzioni. Nel grafico che segue si vede come il coefficiente di esposizione “Ce” aumenta man mano che aumenta l’altezza dal suolo “z” e come la “categoria di esposizione I” (lungo le coste e sul mare) sia quella che presenta valori maggiori di tale coefficiente.

Non voglio entrare nei dettagli delle formule, tuttavia vi posso dire che, col fine di determinare l’influenza della velocità del vento sull’area di buffer, considererò la categoria di esposizione I la quale fornisce dei valori cautelativi. Al termine di questo articolo metterò a disposizione un foglio Excel per fare i calcoli secondo diverse categorie di esposizione.
Dal diagramma sopra si vede che le curve presentano un tratto verticale fino ad altezze dal suolo comprese tra 2 m e 12 m (dette “Zmin”), a seconda della categoria di esposizione. Noi piloti, con l’anemometro portatile, misuriamo la velocità del vento proprio all’interno di quel tratto, a 2 m da terra, ad esempio. Se siete in un campo volo probabilmente avete a disposizione la velocità del vento a 10 m da terra. La tabella seguente mostra la relazione tra le velocità del vento misurata al suolo e quella a varie altezze.

Ora vi dico cosa ho fatto. Considerate, ad esempio, un’altezza Z=50 m. Per la categoria d’esposizione I si ha Ce(Z)=Ce(50)=3.8 (guarda il grafico di prima). Le Norme Tecniche sulle Costruzioni mi dicono che Zmin vale 2 m, quindi posso calcolare Ce(Zmin)=Ce(2)=1.9 (guarda ancora il grafico di prima nella parte rettilinea). Il rapporto tra la velocità del vento in quota e quella a terra è proporzionale alla radice quadrata del rapporto tra i corrispondenti coefficienti d’esposizione. I relativi valori sono riportati nella terza colonna. Ed ora? Cosa me ne faccio? Semplicemente posso prendere tale rapporto e moltiplicarlo per la velocità del vento misurata a terra per ottenere la velocità del vento in quota. E tiriamo una riga anche sul secondo punto.

Veniamo al terzo punto. Quando la corrente d’aria, a velocità costante, investe l’APR si genera su di esso una pressione che lo sospinge e gli imprime un’accelerazione, pertanto la velocità che acquisisce non rimane costante, ma aumenta. Se inizialmente era fermo, comincerà a muoversi, accelerando. La tendenza sarà quella di assumere le velocità del vento, ma non ci arriverà mai a causa dell’attrito con l’aria. Ho fatto una prova col mio DJI Phantom 4 Pro lasciandolo in hovering in P-mode (Positioning) col vento più o meno costante (tenevo d’occhio un anemometro fissato ad un’asta); poi ho cambiato la modalità di volo in A-mode (Attitude) e l’APR ha cominciato a spostarsi lungo la direzione del vento. Nel frattempo cronometravo quanto ci impiegava a compiere una certa distanza (avevo steso a terra una cordella metrica). La velocità media per compiere lo stesso tratto è data dal rapporto tra lo spazio percorso ed il tempo impiegato. Tale velocità media è una percentuale di quella del vento. Ripetendo la prova più volte ho estratto un valore medio di tale percentuale. E’ un metodo poco rigoroso, lo so, ma almeno è supportato da prove sul campo.

Da queste considerazioni emerge che assumere la velocità del multirotore pari a quella del vento è fin troppo cautelativo, ma d’altro canto non si può nemmeno dire che il vento non cambi la velocità dell’APR. Va considerato anche che, quando l’APR va fuori controllo, non è detto che il vento soffi proprio nella direzione più sfavorevole. Magari tende a spingerlo all’interno della zona delle operazioni anziché allontanarlo.

In base alle considerazioni sopra, mi sentirei abbastanza confidente nel ritenere che il vento aumenti la velocità dell’APR di una percentuale pari al 20% della velocità del vento. Non prendete questa percentuale come oro colato. Ognuno faccia le prove col suo drone e nelle condizioni che ritiene più adeguate.

A questo punto è possibile calcolare l’incremento dell’area di buffer per effetto del vento (dw).

dove Vw è l’incremento di velocità dell’APR per effetto del vento. Tale incremento lo assumo pari al 20% del vento in quota. Il vento in quota è a sua volta pari al vento a terra moltiplicato per il coefficiente amplificativo riportato nella tabella sopra. Non preoccupatevi, a fare i calcoli ci pensa il foglio Excel allegato. La tabella seguente mostra i risultati. Se il drone vola a 60 m di altezza ed il vento al suolo soffia a 2 m/s, allora la distanza di buffer va aumentata di 4 m.

A questo punto il gioco è fatto. L’area di buffer che tiene conto sia della velocità dell’APR al momento della perdita di controllo, sia del vento è data da:

D = d + dw

Facciamo un esempio riepilogativo.
Supponiamo di volare a 60 m di altezza e ad una velocità di 5 m/s (ad esempio durante una missione di volo automatico). Dalla prima tabella ricavo che l’area di buffer deve essere ampia almeno 32 m. Se il vento misurato a terra ha una velocità di 2 m/s, volando a 60 m di altezza dovrà aumentare il buffer di 4 m (vedi la tabella sopra). L’area di buffer dovrà essere ampia almeno D=32+4=36 m.

Spero di essere stato chiaro. Semmai non esitate a contattarmi.
Ti ricordo che mi trovi anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Ciao!

CALCOLO AREA DI BUFFER

RILIEVO FOTOGRAMMETRICO AD ALTEZZA COSTANTE E QUOTA VARIABILE

24 Aprile 2019/in FOTOGRAMMETRIA-RILIEVI

Ciao!
In questo articolo e nei video allegati ti mostro come puoi pianificare una missione di volo di un drone facendolo volare ad altezza costante rispetto al terreno, ma a quota variabile. Per farlo ti proporrò due strade diverse che contemplano l’uso di due combinazioni diverse di software:

  1. Il software open source QGIS e l’applicativo web Mission Hub di Litchi. La soluzione è a basso costo, ma i risultati ottenibili, a mio avviso, sono davvero interessanti.
  2. Il software Sierrasoft Land ed ancora l’applicativo web Mission Hub di Litchi. In questo caso, a mio avviso, si ottengono dei risultati più attendibili e la procedura è più veloce.

Per pianificare la missione ti metto a disposizione un foglio Excel realizzato da me nel quale trovi inseriti i dati relativi alla fotocamera del DJI Phantom 4 Pro, ma funziona anche per altre fotocamere. Basta inserire i dati corretti. Il foglio Excel pone come dato di partenza il GSD (Ground Sample Distance) ed in base ai parametri che imposterai calcolerà l’altezza di volo massima del drone. La velocità massima in avanzamento e la distanza trasversale tra le strisciate dipendono, invece, dall’intervallo tra gli scatti e dalla percentuale di sovrapposizione tra essi. Non ti spiego la teoria che sta alla base dei calcoli. Puoi trovare le spiegazioni che ti servono in articoli facilmente reperibili su internet. In fondo alla pagina ti lascio i riferimenti del sito di 3DMetrica dove potrai trovare tutto quello che ti serve.
Una volta pianificata la missione, deducendo i parametri dal foglio Excel, ti mostro come realizzare la parte grafica per tracciare la rotta. Ne caso del punto 1 si può fare con QGIS (o Autocad come ho fatto io solo perché mi risulta più comodo), mentre nel caso del punto 2 si può utilizzare Land. La rotta poi verrà passata a Mission Hub per creare la missione automatica. Quando sarai in campo dovrai solo settare le impostazioni di scatto (intervallo, ISO, aperture, tempi, pitch, ecc.).
I procedimenti che ti mostro ti lasciano molta libertà di creazione delle missioni. Puoi anche inserire dei tratti al di fuori della classica serpentina, oppure creare più missioni, a livello grafico, da eseguire singolarmente con Litchi.

Gli esempi che ti mostro nei video contemplano la realizzazione di una missione nelle quali l’asse della camera è sempre posto in posizione nadirale, qualsiasi sia l’inclinazione del pendio sottostante. Questo provoca una variazione dei parametri impostati nel foglio Excel come, ad esempio la percentuale di sovrapposizione degli scatti. Inoltre, all’interno dei singoli scatti, il GSD sarà variabile. Nelle parti di terreno a quota maggiore si avrà un GSD inferiore (perché più vicine al drone), mentre nelle parti di terreno a quota inferiore si avrà un GSD maggiore (perché poste a maggior distanza dal drone. L’unico modo per avere un GSD costante, all’interno dei singoli scatti, sarebbe quello di inclinare la camera con l’asse ottico perpendicolare al versante. Lascio a te la scelta.

Ti lascio il link ad un articolo dove ti mostro come georeferenziare un’immagine con Autocad.

Ti ricordo che mi trovi anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Ora ti lascio alla visione dei due video.
Ciao!

FOGLIO EXCEL PER GEOREFERENZIARE IMMAGINI
FOGLIO EXCEL PER PIANIFICARE LA MISSIONE

1. PIANIFICAZIONE CON QGIS E MISSION HUB

2. PIANIFICAZIONE CON SIERRASOFT LAND E MISSION HUB

FOTOGRAMMETRIA: INFORMAZIONI DI POSIZIONE E ORIENTAMENTO DEGLI SCATTI

12 Aprile 2019/in FOTOGRAMMETRIA-RILIEVI

Per l’elaborazione di un rilievo fotogrammetrico vengono utilizzati dei software specifici in grado eseguire una ricostruzione tridimensionale del soggetto partendo dai dati contenuti nelle foto.

Il primo passo è quello di trovare il giusto orientamento degli scatti fotografici tramite l’individuazione di punti omologhi tra i fotogrammi. Il software, in pratica, cerca dei punti che rappresentino la medesima parte del soggetto in due o più scatti. Sulla base della posizione di tali punti all’interno dello scatto e dei parametri della fotocamera (caratteristiche del sensore e dell’ottica) vengono determinate la posizione e l’orientamento degli scatti, nonché la posizione dei punti nello spazio. Tale procedura viene agevolata se si dice al software quali dati
utilizzare come primo riferimento per l’orientamento degli scatti e per la risoluzione delle equazioni di collinearità. Tali dati sono da ricercare all’interno dei file degli scatti fotografici prodotti dalla camera digitale. Infatti, ogni scatto racchiude in se dei dati Exif (Exchangeble image format) inerenti una moltitudine di parametri, dalle caratteristiche del sensore ai parametri di scatto fino alla posizione geografica della camera e perfino all’orientamento della stessa.

Nel video che segue, vi mostro come estrarre, dai file delle immagini, i dati che ci interessano per velocizzare l’allineamento degli scatti. La procedura illustrata crea un file .txt contenente i dati di tutte le fotografie elaborate. Qui potete anche scaricare i file necessari.

Vi ricordo che mi trovate anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale vi parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

EXIF POSIZIONE E ORIENTAMENTO

DRONI E AREE IN DISSESTO IDROGEOLOGICO

25 Marzo 2019/in FOTOGRAMMETRIA-RILIEVI

Il rapporto sul dissesto idrogeologico in Italia, elaborato dall’Istituto Superiore per la Protezione e la Ricerca Ambientale (ISPRA), riporta un quadro aggiornato sulla pericolosità per frane e alluvioni nel territorio nazionale. I dati mettono in evidenza che il 19.9% della superficie nazionale è a rischio frane e ben l’8.4% con pericolosità molto elevata o elevata.

Alle aree a rischio frana vanno aggiunte quelle a rischio alluvione che hanno una superficie del 23.4% di quella nazionale.

Mettendo assieme frane e alluvioni si ottiene la mappa seguente:

La superficie delle aree classificate a pericolosità da frana elevata o molto elevata e/o idraulica media ammonta complessivamente al 16,6% del territorio nazionale. Impressionante!

Un quadro generale come quello mostrato dal Rapporto ISPRA pone in evidenza come debbano essere messe in campo delle strategie di prevenzione e difesa efficaci. In questo ambito ritengo che i droni possano davvero offrire un valido aiuto. Si pensi, ad esempio, alla possibilità di effettuare dei sorvoli su zone pericolose dove è appena avvenuta una frana o si sospetta possa avvenire. Oppure affidarsi ai droni per controllare l’efficacia e lo stato di degrado di opere di consolidamento già realizzate. Spesso si tratta di zone la cui accessibilità è limitata a causa dell’elevata pendenza, della mancanza di strade o semplicemente perché le opere a verde realizzate stanno facendo bene il loro lavoro crescendo e moltiplicandosi. Uno sguardo dall’alto può sicuramente dare una mano. Il periodo migliore per i sopralluoghi, almeno qui dalle mie parti, in Trentino, è l’inizio della primavera. Gli alberi non hanno ancora le nuove foglie e durante l’inverno si sono completamente spogliati di quelle vecchie grazie alla neve ed al vento. Il suolo è libero dalla neve e le opere di difesa si vedono bene. Inoltre si possono vedere eventuali danni provocati da valanghe recenti o dai torrenti creati dal disgelo.

Nel video qui sotto vi porto in Val di Ledro (TN), nella Val Scaglia, dove il Servizio Bacini Montani della Provincia Autonoma di Trento ha realizzato delle opere di ripristino e difesa dalle frane. Si tratta di un versante che sta subendo una forte erosione ed i detriti vengono trasportati a valle dal torrente Assat fino al Lago di Ledro. Le opere realizzate sono volte a limitare questo fenomeno. Dal video sono ben visibili la canaletta principale al centro e quelle laterali a spina di pesce, nonché le palificate vive per il sostegno del terreno. Lungo il torrente sono state realizzate, in tempi non recenti, numerose briglie.

Dal video si capisce come, in pochi minuti, sia stato possibile visionare lo stato delle opere distribuite su un dislivello di oltre 250 m (130 verso l’alto e 120 verso il basso). Con una batteria del Phantom 4 Pro si riesce ad ispezionare una zona molto vasta, tuttavia sarebbe bene farsi dire prima, dai responsabili del progetto, le parti a cui bisogna dedicare maggior attenzione o addirittura farsi accompagnare. In questo caso è utile avere anche un doppio LCD.

In fase di programmazione dell’intervento si sarebbe potuto far ricorso alla fotogrammetria da drone rilevando la zona con una determinata cadenza temporale. In questo modo sarebbe stato possibile determinare il volume di detriti trasportati a valle nel periodo di tempo intercorso tra un rilevo e quello successivo.

Vi lascio alla visione del video e vi ricordo che mi trovate anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale vi parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Ciao!

P.S. Le tabelle e le immagini di questo articolo sono tratte dalla sintesi del Rapporto ISPRA 2018.

FOTOGRAMMETRIA CON METASHAPE STANDARD E CLOUD COMPARE

16 Marzo 2019/in FOTOGRAMMETRIA-RILIEVI

In questo articolo descriverò come realizzare un rilievo fotogrammetrico utilizzando i software Metashape Standard della Agisoft e Cloud Compare. Metashape Standard è la versione base del software, infatti ne esiste anche una Professional che ha molte più funzioni e, soprattutto, permette di ottenere dei modelli scalati alle dimensioni reali. La differenza di prezzo tra le due versioni è notevole. Attualmente la versione standard costa 179 dollari, mentre quella Professional 3499 dollari. Cloud Compare, invece, è gratuito ed open source.
In calce a questo articolo troverete i riferimenti ad un video nel quale ho mostrato come utilizzare i due software per sviluppare un rilievo fotogrammetrico riportando i risultati ottenuti in termini di accuratezza rispetto ai punti rilevati in loco con uno strumento GNSS.
Non posso e non voglio affermare che questi due software rappresentano un’alternativa a soluzioni più complete in quanto ognuno potrà valutare se l’accuratezza ottenuta sia sufficiente per il lavoro che deve svolgere, oppure se sia necessaria un’accuratezza maggiore.

A mio avviso, come spiegato nel video, l’accuratezza del rilievo di prova che ho eseguito può essere migliorata aumentando la sovrapposizione trasversale tra le foto ed editando la nuvola sparsa di punti. Inoltre, un più accurato posizionamento di un paio di Ground Control Points (GCP) avrebbe giovato.

Il procedimento che illustrerò nel video si articola nei seguenti passaggi:

1 – Pianificazione del volo in termini di rotta che l’APR dovrà seguire, intervallo tra gli scatti, GSD, velocità di crociera, sovrapposizione tra i fotogrammi. In questo passaggio ho utilizzato un foglio di calcolo realizzato da me per la pianificazione della missione, il software open source QGIS e Mission Hub di Litchi.

2 – Per l’esecuzione del volo ho utilizzato un Phantom 4 Pro ed ho scattato 211 fotografie che ho elaborato con Metashape Standard. L’allineamento dei fotogrammi non è stato ottimizzato con i Ground Control Points (GCP) in quanto la versione Standard del software non lo permette. Questo implica che la nuvola densa risultante dall’elaborazione conterrà in sé una deformazione non lineare che non può essere corretta. Inoltre, il modello non sarà scalato alle dimensioni reali.

3 – Ho caricato la nuvola densa in Cloud Compare assieme alla “nuvola” dei punti rilevati con lo strumento GNSS. Il software permette di allineare le due nuvole con una trasformazione a sette parametri: tre traslazioni, tre rotazioni ed una variazione di scala. La deformazione non lineare non è risolvibile. Il procedimento di georeferenziazione avviene creando una corrispondenza tra i punti della nuvola (centro dei GCP) ed i punti rilevati in loco.

Nuvole di punti densa e punti rilevati.

Risultato della georeferenziazione.

4 – Per determinare l’accuratezza dell’elaborazione del rilievo fotogrammetrico, ho estratto dalla nuvola le coordinate dei GCP.

Poi le ho confrontate con le coordinate dei medesimi punti rilevati con lo strumento GNSS.

A questo punto l’accuratezza del rilevo, almeno in corrispondenza dei GCP, è nota.

5 – Il passo successivo è stato quello di eseguire l’ottimizzazione dell’allineamento delle foto sfruttando i GCP. Questa funzione, come detto, non è presente nella versione Standard di Metashape, ma nella Professional c’è. La nuvola densa così ottenuta è stata importata in Cloud Compare dal quale ho estratto le coordinate dei GCP mettendole poi a confronto con quelle rilevate.

Come si può notare dal confronto con la tabella riportata al punto 4, gli scarti planimetrici sono più o meno gli stessi, mentre le quote sono state corrette.

6 – Ho voluto eseguire un’ulteriore prova mettendo a confronto le due nuvole di punti per valutare quanto influisca la deformazione non lineare del modello. Per farlo ho importato le due nuvole in Cloud Compare e gli ho chiesto di determinare la distanza tra le due nuvole separando le tre componenti lungo gli assi cartesiani x, y, z (Est, Nord, Quota).

Distanza tra nuvole lungo l’asse z.
Distanza tra nuvole lungo l’asse z nella zona di interesse.

La maggior parte dei punti ha una distanza compresa tra -10 cm e +10 cm dalla nuvola non distorta.

Nel seguito riporto un video che ho caricato su YouTube nel quale mostro l’intero procedimento ed i risultati ottenuti. Come al solito sono ben accetti i vostri riscontri. Intanto vi auguro buona visione.

Vi ricordo che mi trovate anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale vi parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Ciao!

IMPORTARE UN’IMMAGINE GEOREFERENZIATA IN AUTOCAD

11 Febbraio 2019/in FOTOGRAMMETRIA-RILIEVI

A volte si ha la necessità di utilizzare delle immagini georeferenziate all’interno di software CAD col fine di sovrapporvi un rilievo topografico, oppure prendere misure tra punti rappresentati nell’immagine. E’ il caso, ad esempio, delle ortofoto o delle mappe storiche messe a disposizione dagli uffici catastali.

Mappa storica di un centro abitato
Ortofoto del centro abitato rappresentato nella mappa storica

Come sappiamo, le immagini digitali sono costruite come una sorta di scacchiera dove ogni scacco è un pixel. La particolarità delle immagini georeferenziate è che al centro di ogni pixel vengono associate due coordinate di un piano cartesiano; nel caso di una rappresentazione del territorio, tipicamente sono Est e Nord. Non solo! Ai pixel vengono associate delle dimensioni metriche che definiscono le lunghezze dei suoi lati e la rotazione. Detti parametri sono contenuti, solitamente, in un file di testo (tipicamente con estensione .jgw) che accompagna l’immagine.

Nel file di testo sono raccolti, quindi, sei parametri:
A – Dimensione di un pixel in unità della mappa nella direzione X
D – Scostamento di un pixel rispetto alla direzione X in unità della mappa
B – Scostamento di un pixel rispetto alla direzione Y in unità della mappa
E – Dimensione di un pixel in unità della mappa nella direzione Y
C – Coordinata X del centro del pixel superiore sinistro in unità della mappa
D – Coordinata Y del centro del pixel superiore sinistro in unità della mappa

In linea teorica, per una trattazione del tutto generale, i pixel di forma quadrata dell’immagine potrebbero essere trasformati in un rettangolo, nelle dimensioni reali, anziché in un nuovo quadrato. Tuttavia, nella rappresentazione del piano cartografico UTM (proiezione universale trasversa d Mercatore) si è scelto di utilizzare il metro come unità di misura, porre A=E e B=D=0. L’immagine trasposta alle dimensioni reali, quindi, sarà composta da tanti tasselli quadrati con i lati messi in orizzontale e verticale.

Una volta note le dimensioni dell’immagine in pixel ed i valori contenuti nel file .jgw, è possibile procedere alla georeferenziazione dell’immagine. Tutti i software topografici lo fanno (a volte anche commettendo degli errori, anche se piccoli), tuttavia non è strettamente necessario ricorrere ad essi. Basta un foglio Excel. Qui sotto trovate il foglio di calcolo che utilizzo io per georeferenziare le immagini da importare in Autocad. Il suo funzionamento ve lo mostro nel video.

FOGLIO EXCEL PER GEOREFERENZIARE IMMAGINI

RILIEVO FOTOGRAMMETRICO DI UNA PARETE ROCCIOSA UTILIZZANDO QGIS, AUTOCAD E LITCHI

3 Febbraio 2019/in FOTOGRAMMETRIA-RILIEVI

In questo articolo ti voglio mostrare come, grazie all’intervento di Autocad, sia possibile programmare delle missioni di volo che seguano una rotta generica nello spazio, in particolare una serpentina contenuta in un piano con una determinata inclinazione. Per l’esposizione mi servirò di due video che ho caricato su YouTube in quanto ritengo che sia il modo migliore per mostrare i vari passaggi rimarcando quelli in cui bisogna prestare maggior attenzione. Chiedo perdono per il tono soporifero della mia voce. Il fatto è che, dovendo anche eseguire i vari passaggi al PC, spiegandoli, devo necessariamente andare lentamente. Spero che non vi addormentiate. Per chi vuole solo capire come funziona il procedimento, consiglio di riprodurlo a velocità 1.5x. Chi, invece, vuole seguirmi nei vari passaggi, lo lasci a velocità normale.

Nell’esposizione ho utilizzato una copia antiquata di Autocad, la versione LT 2007. Questo, in realtà, è per mettere in evidenza che gli strumenti necessari per pianificare una missione di questo tipo sono davvero basilari. LT 2007 non gestisce gli oggetti 3D (solidi, superfici, polilinee 3D) e nemmeno l’importazione delle immagini. Per quanto riguarda il disegno in 3D, ho risolto non ricorrendo al tracciamento di polilinee 3D per la rotta, ma utilizzando solo linee e punti. Per quanto riguarda l’importazione dell’immagine di sfondo, invece, ho utilizzato un file generato con Autocad Full nel quale è presente un riferimento esterno ad un’immagine. Tale file può essere aperto anche da LT 2007 ed il collegamento all’immagine può essere ricreato. In calce all’articolo trovate il file .dwg con il riferimento ad un file MAPPA.jpg. Basta salvare l’immagine con tale nome nella stessa cartella del file .dwg ed all’apertura la mappa verrà caricata. Come software topografico utilizzo Sierrasoft Land nel quale potrei importare la mappa georeferenziata e tracciare la polilinea 3D della rotta, tuttavia, se avessi mostrato questo procedimento, sarebbe stato valido solo per i possessori di Land. Per quanto riguarda Autocad LT, invece, immagino che qualsiasi tecnico abbia a disposizione una versione equiparabile o superiore di un CAD.
Come spiego nel primo video, l’immagine da importare in Autocad necessita di essere georeferenziata. In un altro articolo/video spiegherò come fare senza ricorrere all’uso di un software topografico.
Per quanto riguarda il file Excel per la pianificazione della missione, potete scaricare il file che trovate qui sotto avendo l’accortezza di scambiare i valori inseriti per le dimensioni in pixel del sensore.
Detto questo, vi auguro una buona visione.

Vi ricordo che mi trovate anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale vi parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Ciao!

PIANIFICAZIONE MISSIONE PHANTOM 4 PRO
FILE AUTOCAD LT 2007 (compresso)

Con il video successivo rispondo ad un quesito che mi ha posto Luca relativamente alla programmazione della missione di volo utilizzando solo QGIS e Litchi, bypassando, quindi, Autocad. Un grazie a Luca.

CALCOLO ALTEZZA STRISCIATE
FILE QGIS

INSERIRE UN’IMMAGINE IN AUTOCAD NELLA SCALA CORRETTA

19 Gennaio 2019/in FOTOGRAMMETRIA-RILIEVI

Spesso mi capita di utilizzare delle immagini nell’ambiente grafico di Autocad rappresentandole nella loro scala corretta. In particolare, le immagini di cui faccio uso sono:

  • Estratti di mappe storiche.
  • Estratti di piani regolatori o di cartografia urbanistica in generale.
  • Scansioni di vecchi progetti forniti dal committente.

In tutti questi casi, ho la necessità di importare l’immagine in Autocad mantenendo la fedeltà delle misure, ossia le misure prese sul documento d’origine e quelle prese in Autocad devono coincidere. Probabilmente in molti software esistono delle funzioni specifiche per l’importazione delle immagini in scala, tuttavia in questo breve articolo voglio spiegare il procedimento che utilizzo io che bypassa qualsiasi funzione dedicata. Si tratta di un procedimento rigoroso (restituisce le misure corrette, non approssimate) e del tutto generale: basta avere un’immagine ed un software CAD. Non mi riferirò ad immagini geo-referenziate che dispongono di specifici dati per il corretto posizionamento nel piano cartografico, ma di immagini generiche, come quelle che derivano dalla scansione di un documento senza nessun successivo trattamento. Nella spiegazione utilizzerò un esempio pratico, quindi cominciamo.

Considerate l’immagine seguente, ottenuta impostando lo scanner ad una risoluzione di 300 dpi ed un formato immagine “.jpg”. Il disegno originale è in scala 1:100.

IMMAGINE

Cliccando col tasto destro del mouse sul file immagine.jpg -> proprietà -> dettagli, potrete vedere i dati EXIF del file:

PROPRIETA

Come si può notare, le dimensioni dell’immagine sono 1856 x 1944 pixel, ma non è dato sapere a quanto corrispondano in unità metriche. Se si volesse importare l’immagine in Autocad in modo approssimato, basterebbe prendere una qualsiasi misura sul disegno d’origine, sulla carta per intenderci, e poi scalare l’immagine importata finché non si ottiene la medesima misura. Il procedimento corretto, tuttavia, è il seguente che, come dicevo sopra, fornisce la scalatura corretta dell’immagine.

Consideriamo la larghezza di 1856 pixels ed indichiamola con Lp. La corrispondente lunghezza in centimetri (Lc) è possibile ricavarla tramite la seguente espressione:

Lc = Lp / ris * 2.54 = 1856 / 300 * 2.54 = 15.714133 cm

dove:
ris = 300 è la risoluzione in “dpi” dell’immagine
2.54 sono i centimetri a cui corrisponde un pollice; infatti l’unità di misura “dpi” sta a significare “dots per inch” ossia “punti per pollice”. Banalizzando, consideriamo che un punto corrisponda ad un pixel, ma so bene che ai guru del digitale gli si rizzeranno i capelli a leggerlo.

A questo punto basta importare l’immagine in Autocad e scalarla finché la sua larghezza non corrisponde a 15.714133 cm. Attenzione però. L’immagine così importata sarà in scala 1:100, ossia le misure prese sul disegno originale ed in Autocad corrisponderanno. Se volessi, ad esempio, scalare l’immagine fino ad ottenere le dimensioni reali, basterebbe ingrandirla di 100 volte. In questo modo le misure prese in Autocad, direttamente sull’immagine, corrisponderanno al reale. Questo è molto utile quando si vuole “ricalcare” l’immagine nell’ambiente grafico del software.

Con lo stesso procedimento è possibile inserire in scala delle immagini ottenute dagli strumenti Snapshot dei software tipo PDF-XChange Editor. E’ il caso, ad esempio, dei file “.pdf” messi a disposizione dalle amministrazioni comunali relativamente alle previsioni urbanistiche. L’utente può impostare la risoluzione delle immagini catturate con lo Snapshot. A seguito della cattura, basta incollarle in Paint e salvarle in “.jpg”. Il procedimento poi è uguale a quello esposto sopra avendo cura di considerare i valori corretti per le dimensioni dell’immagine in pixel, per la risoluzione e per la scala del disegno originale.

Se conoscete qualche applicativo che fa la stessa cosa, vi pregherei di segnalarmelo.

Ciao!

SORVOLO DI ASSEMBRAMENTI DI PERSONE

3 Settembre 2018/in FOTOGRAMMETRIA-RILIEVI

A proposito del volo con un APR inoffensivo sopra gli assembramenti di persone, siamo tutti d’accordo nel ritenere che è proibito dal regolamento ENAC, tuttavia mi risulta che nessuno abbia definito compiutamente cosa sia un assembramento di persone. Ritengo che ENAC abbia lasciato libera interpretazione ad un termine che necessitava, invece, di una definizione ben precisa, vista soprattutto la sua importanza nel discriminare un’operazione specializzata non critica da una critica.
E’ pur vero che ogni operatore dovrebbe elaborare un’analisi dei rischi che gli consenta di valutare se può volare, oppure no, sopra un gruppo di persone in relazione alle caratteristiche del suo APR e della missione che deve compiere. Faccio un paio di esempi:
– Se un Tello del peso di 80 grammi lo faccio volare a 5 m di altezza sopra un gruppo di persone e precipita, quale è il rischio di ferire delle persone? La probabilità che precipiti proprio sopra il gruppo è molto alta, ma il danno che provocherebbe sarebbe basso.
– Se, invece, considero uno Spark trecentizzato che vola a 150 m di altezza sopra un gruppo di persone e subisce un malfunzionamento, quale è il rischio di ferire delle persone? La probabilità che precipiti proprio sopra il gruppo è molto bassa (probabilmente compierebbe una parabola), ma il danno che provocherebbe cadendo sopra il gruppo sarebbe alto.
La matrice di rischio R=PxD, che riporto nell’immagine sotto, potrebbe fornire lo stesso grado di rischio per due scenari completamente diversi.
La grave mancanza di ENAC, a parer mio, è stata quella di aver tolto l’obbligo dell’analisi del rischio per gli APR sotto i 300 grammi. Un operatore che debba mettere in campo delle misure preventive per effettuare un volo sicuro, deve avere bene in testa quali sono i rischi a cui va incontro: presenza di persone estranee alle operazioni, interferenze, temperatura, vento, indice Kp elevato, ecc. Probabilmente ENAC ha ritenuto che, per APR di peso inferiore a 300 grammi, l’analisi del rischio possa essere omessa perché è già stata svolta a monte dall’Ente stesso sulla base di prove, calcoli, considerazioni. Sulla base di tali dati ha dichiarato l’inoffensività degli APR sotto i 300 grammi. Secondo me ENAC avrebbe potuto optare per due approcci distinti:
– Uno di tipo prescrittivo del tipo: ”Vietato volare sopra assembramenti di persone che presentino un affollamento superiore a 1 persona/mq con almeno 10 persone.”
– Oppure, demandare ad una valutazione del rischio effettuata dall’operatore che porti ad un rischio basso o accettabile (vedi matrice di rischio). In base alle risultanze dell’analisi, l’operatore dovrebbe stabilire quali misure preventive adottare: volare con un APR più leggero, volare più in alto, mantenersi ad una certa distanza, volare sopra gruppi di persone che presentano un affollamento minore di un certo valore e con un numero massimo di persone, ecc.
In mancanza di una definizione rigorosa, in caso di incidente, ci penserà il giudice col suo consulente a stabilire se un gruppo di persone era un assembramento. La valutazione del rischio fatta dall’operatore, per contro, potrebbe rivelarsi sbagliata o diversa da quella effettuata dal consulente del giudice, ma almeno si potrebbe dimostrare che ci si aveva pensato e si era fatto il possibile per evitare l’incidente.
Quanto ho scritto sopra può sembrare solo teoria, tuttavia vorrei far notare che la matrice di rischio viene utilizzata molto spesso nell’ambito della sicurezza nei luoghi di lavoro e potrebbe essere implementata anche per le operazioni di volo specializzate. Il concetto di probabilità di accadimento e di magnitudo del danno sono ormai consolidati anche nella progettazione delle strutture e della prevenzione incendi con l’intento di passare da un concetto di normativa prescrittiva ad uno prestazionale.

Voi cosa ne pensate? Datemi un riscontro. Mi trovate anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Se volete leggere gli altri articoli del mio blog è sufficiente che andiate nella pagina dedicata del mio sito.

Voglio consigliare anche la lettura di un articolo pubblicato sulla rivista Dronezine dal quale ho tratto l’immagine di copertina:

Droni Trecentini: gli assembramenti di persone non van presi alla leggera

TERMINATORE DI VOLO PER OPERAZIONI SPECIALIZZATE… NON CRITICHE?

3 Settembre 2018/in FOTOGRAMMETRIA-RILIEVI

Bentrovati,

vorrei avere un riscontro in merito all’interpretazione di un articolo del Regolamento ENAC per i Mezzi Aerei a Pilotaggio Remoto.

L’art. 9 del Regolamento specifica:
“Per operazioni specializzate “non critiche” si intendono quelle operazioni condotte in VLOS che non prevedono il sorvolo, anche in caso di avarie e malfunzionamenti, di:
– aree congestionate, assembramenti di persone, agglomerati urbani;
– infrastrutture sensibili.”

Quindi anche in caso di avarie e malfunzionamenti si dovrebbero garantire i due punti sopra riportati. Se penso al mio DJI S900, con una velocità di oltre 15 m/s ed un’autonomia di almeno 16 minuti, potenzialmente percorrerebbe almeno 16x60x15=14400 m = 14.4 Km prima di schiantarsi al suolo.
In caso di malfunzionamenti o avarie potrebbe accadere che la centralina di volo non riconosca il geofencing e non attivi il return to home. In tal caso non è possibile garantire i due punti sopra per un raggio di almeno 14.4 Km, pertanto l’operazione diventa critica.
La mia domanda è: “In base a considerazioni analoghe a quelle che ho fatto per il mio DJI S900 ed alle previsioni del Regolamento, si potrebbe ritenere che il terminatore di volo, di fatto, sia obbligatorio anche per le operazioni specializzate non critiche?”
I malfunzionamenti possono essere di vari tipi ed un APR senza terminatore di volo diverrebbe ingestibile in caso di fly away; proseguirebbe nel volo fino a schiantarsi al suolo e quasi sicuramente sorvolerebbe aree congestionate, assembramenti di persone, agglomerati urbani o infrastrutture sensibili. Diversamente, bisognerebbe essere nel deserto.
Voi cosa ne pensate? Datemi un riscontro. Mi trovate anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Se volete leggere gli altri articoli del mio blog è sufficiente che andiate nella pagina dedicata del mio sito.

DJI MAVIC 2 PRO

29 Agosto 2018/in FOTOGRAMMETRIA-RILIEVI

Ciao. Avete visto il nuovo DJI Mavic 2 Pro presentato il 23 agosto? Sensore da 1″ con 20 Mpix e tanto altro. Una considerazione: le nuove regole europee per l’utilizzo dei droni emanate da EASA prevederanno che il sorvolo di persone non assembrate sarà permesso ad APR di peso inferiore a 900 g, con velocità inferiore a 19 m/s e dotati di marcatura CE. Inoltre non potranno avere bordi taglienti, quindi sarà necessario aggiungere dei paraeliche. Il Mavic 2 Pro pesa 907 g (senza paraeliche) e vola a 20 m/s in modalità sport. Immagino non sia possibile modificarlo per portarlo a meno di 900 grammi (con paraeliche) senza perdere la marcatura CE. La velocità massima di 19 m/s può essere rispettata solo se non si attiva la modalità sport. Attualmente non credo ci siano in commercio dei droni con sensori da 1″ che abbiano un peso inferiore a 900 g e che rispettino le caratteristiche riportate nella bozza di regolamento EASA. Voi avete informazioni a riguardo? Datemi un riscontro. Mi trovate anche su Telegram (https://t.me/giampaoloberetta) dove ho aperto un canale nel quale ti parlo della mia attività e condivido informazioni (https://t.me/inggiampaoloberetta).

Se volete leggere gli altri articoli del mio blog è sufficiente che andiate nella pagina dedicata del mio sito.

CERCA NEL SITO

CATEGORIE

  • APPARECCHI DI SOLLEVAMENTO (4)
  • FOTOGRAMMETRIA-RILIEVI (19)
  • STRUTTURE (3)
ISCRIVITI AL MIO CANALE TELEGRAM Il canale dove ti parlo della mia attività e condivido informazioni. Collegati!

ISCRIVITI I AL MIO CANALE YouTube!


Puoi seguire anche il mio canale YouTube dove pubblico i video allegati agli articoli del blog.

SEGUIMI SU FACEBOOK!

© Copyright - Ing. Giampaolo Beretta, via Piave n. 54, 38067 Ledro (TN) - P.IVA 02007280221
  • Facebook
  • LinkedIn
  • Instagram
  • Mail
  • Privacy Policy
  • Cookie Policy
Scorrere verso l’alto