tutorial

HOW TO: aerofotogrammetria con drone e Agisoft Photoscan. Il modello 3D

HOW TO: aerofotogrammetria con drone e Agisoft Photoscan. Il modello 3D

Siamo arrivati alla terza puntata del nostro tutorial tecnico sull'aerofotogrammetria da drone. In questi primi appuntamenti stiamo lavorando con il software Agisoft Photoscan. Nei prossimi appuntamenti scopriremo il software Pix4D Mapper.

Nelle due precedenti puntate abbiamo trattato i temi dalla pianificazione di volo fino all'allineamento delle immagini, inserimento marker e correzione metrica del rilievo, affinché si possa parlare di vero rilievo aerofotogrammetrico e non di Computer Vision.

Ricordiamo che questo tutorial è organizzato sul set di fotografie gentilmente concesse da © Paolo Allodoli 2018, relative alla Chiesa di San Biagio a Lendinara e scattate con un DJI Spark (rif. ENAC 18238).

HOW TO: aerofotogrammetria con drone e Agisoft Photoscan. Introduzione (parte 1)

HOW TO: aerofotogrammetria con drone e Agisoft Photoscan. Elaborazione (parte 2)

Aerofotogrammetria step 8: controllo area di lavoro

Terminata la fase di allineamento e aggiunta marker, possiamo finalmente passare alla generazione del modello 3D vero e proprio. Per limitare il calcolo alla sola area di nostro interesse, al fine di ottimizzare tempi e risorse, dobbiamo per prima cosa ridimensionare l'area di lavoro: di default, l'area viene impostata dal software selezionando sulla nuvola di punti sparsa quella che contiene il maggior numero di punti vicini, lasciando fuori soltanto quelli sparsi ai bordi della nuvola. Premiamo il tasto 7 sul pad numerico per impostare la vista top, il tasto 5 sul pad numerico per impostare la vista ortografica, e selezioniamo il comando Ridimensiona area. Oppure da menu Modello --> Trasforma area --> Ridimensiona area: questo comando attiva agli angoli del nostro box dei pallini blu, che è possibile trascinare dove vogliamo limitare il calcolo. Siccome il box è tridimensionale, gli spigoli sono 8 pertanto anche i pallini blu saranno 8: clicchiamo sul pallino blu con il tasto sinistro e teniamo premuto per trascinarlo dove vogliamo. Poiché il box di selezione dovrà sempre mantenere un aspetto parallelepipedo, selezionare un angolo vuol dire selezionare anche quello equivalente allo spigolo soprastante/sottostante, e spostarlo vuol dire spostare anche gli spigoli ortogonali alla direzione di spostamento. Ripetiamo la stessa operazione premendo il tasto 1 sul pad numerico per attivare la vista frontale.

Poiché il GPS del nostro UAV ha salvato negli EXIF delle immagini le proprietà di latitudine e longitudine, il nostro modello è scalato e orientato con buona approssimazione: non è pertanto necessario agire sulla rotazione e sullo spostamento dell'area, che sono comunque gli altri due comandi che si possono usare per "piegare" le dimensioni dell'area di lavoro alle nostre necessità.

Aerofotogrammetria con drone e Agisoft Photoscan: dimensionare l'area di lavoro

Aerofotogrammetria step 9: generazione nuvola densa

Impostata correttamente l'area di lavoro, siamo finalmente pronti per il processo di ricostruzione 3D. Attiviamo il comando da menu Processi --> Genera nuvola densa: si apre una finestra dove selezionare i parametri di calcolo.

La Qualità Generale serve per determinare quanto densa dovrà essere la nuvola di punti finale: i parametri, come per l'image matching, vanno da minima ad altissima. Si tenga presente che questo parametro è limitato dalla qualità con cui è stata prodotta la nuvola di punti sparsa, quindi quanti punti il software ha effettivamente individuato su ogni singola immagine: è impossibile pensare di ottenere una qualità altissima da un image matching di livello basso. Si può però saltare uno step, ad esempio con un image matching medio ottenere una dense cloud alta. Si tenga presente che più si alza questo parametro più aumentano esponenzialmente i tempi di calcolo. Va considerato inoltre che a detta degli stessi tecnici di Agisoft, maggiore è l'overlap tra le immagini (ovvero la porzione di fotografie che inquadra la stessa area) più lungo sarà il processo di filtraggio della profondità che è alla base della generazione della nuvola densa.

Come in precedenza, la scelta tra qualità media e qualità alta va fatta in base alla scena, ovvero quanti piccoli particolari che dunque richiedono un'analisi fine sono da ricostruire. In genere nell'aerofotogrammetria da drone non ci sono molti piccoli particolari, in quanto il rilievo è "affetto" da un GSD relativamente alto, tendenzialmente superiore al cm. Se vogliamo ricostruire la statua sulla guglia di una chiesa, potremo aumentare a qualità altissima il calcolo, ma se abbiamo volato a 50 metri di distanza ci sarà poco da fare: meglio pianificare un volo intorno alla statua a distanza ravvicinata (10 metri) e poi impostare una qualità media: il risultato sarà comunque superiore.

La seconda opzione riguarda i parametri avanzati del filtro di profondità: ne troviamo quattro, da disabilitato ad aggressivo. Non dobbiamo mai disabilitare il filtro, mentre le altre 3 opzioni agiranno sullo smussamento degli spigoli, quindi uno smussamento aggressivo tenderà ad appiattire molto le curve, uno leggero sarà più gentile. Tale impostazione va scelta in base a quanti particolari vanno ricostruiti e alla loro dimensione: per una semplice architettura, un filtro aggressivo aiuterà a ricostruire facciate non bozzate, mentre nel caso della modellazione organica (ad es. statue o decorazioni architettoniche) sarà più indicato un filtro leggero per conservare i particolari.

Infine selezioniamo anche calcola colore dei punti se non vogliamo vedere una dense cloud in B/N.

Aerofotogrammetria con drone e Agisoft Photoscan: dimensionare generazione nuvola densa

Naturalmente nella scelta dei parametri di calcolo la linea guida è sempre l'output: avremmo bisogno di massima precisione e accuratezza nel caso di modello per reverse engineering o modelli 3D da cui ottenere riproduzioni per stampa tridimensionale, oppure modelli di tipo organico dove la riproduzione delle curve deve essere puntuale (e questa operazione necessita di tanti punti da trasformare in tanti poligoni). In questo caso si dovrà scegliere un workflow di qualità alta o in qualche caso anche altissima.

Ma se ad esempio ci interessa un output verso visualizzatori online tipo Sketchfab, la riproduzione per mondi virtuali, o la generazione di ortofoto per capitolati d'appalto, impegnare la nostra workstation per ore e giorni a calcolare decine di milioni di punti è solo un dispendio di risorse e tempo, perché ciò che richiede l'output è soltanto un modello metricamente preciso e accurato. Nella maggior parte di queste situazioni un workflow di qualità media risulta sufficiente, solo in qualche caso si dovrà scegliere una qualità alta. Le caratteristiche dell'oggetto verranno comunque mantenute anche con una forte discretizzazione finale.

Aerofotogrammetria con drone e Agisoft Photoscan: la nuvola densa

Come potete vedere dall'immagine soprastante, di per sé la nuvola di punti è già un prodotto "finale": è la ricostruzione 3D strutturata di un oggetto o una scena, e può essere esportata e lavorata con specifici software di trattamento, demandando a loro l'analisi o la poligonalizzazione stessa. Per citarne alcuni, si va da software free come Cloud Compare o l'italiano MeshLab, fino a software commerciali come Geomagic. Vedremo in un futuro appuntamento come classificare la nuvola di punti, un'operazione che Photoscan può gestire e che consente eccezionali possibilità di analisi professionali.

Ma la nuvola densa è anche la base per elaborare la mesh 3D: vediamo come.

Clicca e acquista DJI Spark, il miglior drone "trecentino" in Italia, nell'unico store DJI ufficiale in Italia. Aiuterai questo blog

Aerofotogrammetria step 10: generazione mesh 3D

Una mesh poligonale è una "maglia" composta da vertici, spigoli e facce che materializzano delle celle poligonali. Le tipologie di mesh più usate in computer grafica sono le mesh triangolari e le mesh quadrilaterali, ovvero mesh in cui le celle sono rispettivamente di 3 lati o di 4 lati. Nello specifico tecnico ognuno di questi elementi, sia esso triangolo o quadrilatero, non è una semplice forma geometrica, ma quello che in gergo si chiama tupla, ovvero un elemento che contiene un database relazionale che associa ad ogni elemento una serie di attributi: ogni quadrato per farla breve si compone di 4 vertici, 4 spigoli e 1 faccia, e il database della tupla contiene le informazioni che spiegano come questi elementi sono connessi tra loro per formare il quadrilatero. Ogni faccia è poi individuata da un vettore che ne imposta la normale, ovvero il lato della faccia che determina cosa è dentro e cosa è fuori la mesh. Per nostra fortuna, non dobbiamo mettere in pratica questa teoria, perché un software come Photoscan nel generare la mesh si occupa già di tutte le questioni topologiche e algoritmiche per determinare la struttura dati della mesh.

Dunque, da menu Processi --> Genera maglia 3D: si aprirà la finestra con le opzioni che andiamo a vedere.

  • Tipo di superficie: nel primo appuntamento abbiamo visto che la selezione è tra Arbitraria (per ricostruire modelli 3D, o solo altezze (heighfield, per modelli 2.5D, ovvero i terreni). Sceglieremo la prima.
  • Dati in ingresso: sceglieremo naturalmente la nuvola densa, ovvero la nuvola che contiene più informazioni
  • Conteggio facce: possiamo dire a Photoscan di discretizzare il modello risultante secondo parametri predefiniti, oppure decidere noi quanti poligoni dovrà avere il nostro modello. Naturalmente il numero di poligoni ricostruibili dipende dalla quantità di punti che il software ha processato durante la costruzione della nuvola densa. La discretizzazione può anche essere compiuta a posteriori, o con un comando apposito di Photoscan, o nei software terzi già citati
  • Interpolazione (in avanzate): determina il modo nel quale il software deve trattare i "buchi": Disabilitata, i buchi rimarranno tali (saranno ricostruite le facce solo dove esistono punti nella dense cloud); con Abilitata le aree vuote verranno interpolate facendo si che ad ogni punto della cloud corrisponda un cerchio di un certo raggio, se tale cerchio interseca altri punti viene ricostruito il poligono altrimenti rimane il "buco"; con Estrapolata il software chiude tutti i buchi presenti nella cloud potremmo dire in maniera indiscriminata: questo parametro va usato con attenzione e a patto di rimuovere successivamente la geometria extra che verrà generata
  • Calcola i colori dei vertici: come sopra

Scelte le nostre opzioni, premiamo su ok e lanciamo il calcolo, attendendone la fine. I tempi saranno più o meno lunghi a seconda delle performance della vostra workstation.

 

Aerofotogrammetria con drone e Agisoft Photoscan: genera mesh 3D

Pulire la mesh 3D da poligoni indesiderati

La funzione genera maglia 3D tende a generare un modello poligonale sovrastrutturato, soprattutto con l'opzione interpolazione abilitata: vi ritroverete insomma con gruppi di poligoni sparsi, disconnessi dal modello, o comunque una serie di facce non volute. Tali elementi possono essere facilmente rimossi con gli strumenti di selezione della toolbar, ma non sempre è possibile selezionare correttamente le facce non volute, discriminandole da quelle volute. Per cancellare ciò che non serve, al fine di costruire una texture corretta, ci viene in aiuto un tool che dalla versione 1.4 di Photoscan troviamo in menu Modello --> Selezione graduale: questo tool si occupa di analizzare il modello, individuare secondo una determinata soglia i componenti sconnessi e selezionarli per voi. Sarà molto semplice a quel punto cancellarli da menu Modifica --> Cancella selezione.

Aerofotogrammetria con drone e Agisoft Photoscan: selezione graduale

Aerofotogrammetria step 11: costruire la texture

La maglia 3D colorata non sempre è un prodotto finale bello da vedere: evidenzia particolari indesiderati, e non mostra quelli desiderati. Per ovviare a questo problema, alla mesh poligonale è possibile associare una texture che aumenta esponenzialmente la quantità di particolari visibili su ogni faccia.

Questa operazione si porta a termine con il comando menu Processi --> Genera texture: le sue impostazioni di default sono sufficienti nella stragrande maggioranza dei casi. Una modalità di mappatura generica ben si adatta a modelli 3D, la modalità di fusione a mosaico va preferita per la generazione di ortofoto e la dimensione e il numero di texture dipendono dalla quantità di poligoni del modello (4096 o 8192 x1 sono le scelte più comuni). Se abbiamo detto al software di interpolare i buchi, selezioneremo in avanzate il riempimento buchi anche per la texture, mentre possiamo soprassedere sul filtro rimozione artefatti luminosi, in quanto questo filtro è comodo solo per set di immagini che presentano una varietà estrema di luminosità tra loro.

Va specificato che a volte la modalità di fusione a mosaico potrebbe fallire, ma va comunque sempre processata per prima in quanto rispetto alla modalità media non va a generare un mix di dettagli tra foto adiacenti, ma per ogni overlap sceglierà la fotografia più appropriata, ovvero quella che presenta il pixel collocato alla distanza minima del centro dell'immagine (cosa che si traduce in una potenziale migliore nitidezza).

Lanciamo il comando premendo ok e attendiamo la fine del calcolo.

Aerofotogrammetria con drone e Agisoft Photoscan: generazione texture

Aerofotogrammetria step 12: esportare il modello 3D

Completata la generazione della texture, abbiamo terminato il nostro lavoro. Non ci resta che esportarlo, per renderlo disponibile in visualizzatori esterni e consegnarlo al cliente o caricarlo online.

Questa operazione è molto semplice e si attiva da menu File --> Esporta --> Esporta modello: il software vi consente di scegliere tra numerosi formati disponibili, compreso il PDF3D, o un'esportazione diretta verso tool online come Sketchfab. Il formato più comune per l'esportazione di mesh 3D con texture è sicuramente il formato OBJ, e anche qui i parametri di default si prestano ad essere sufficienti nella maggior parte delle situazioni.

Aerofotogrammetria con drone e Agisoft Photoscan: esporta modello
[/newsletter_lock]

Riepilogo

Siamo giunti al termine del nostro tutorial su aerofotogrammetria e Agisoft Photoscan: in questo primo HOW TO abbiamo visto come passare dalla pianificazione del volo all'esportazione di un modello 3D metricamente corretto e texturizzato. Vedremo in futuro, in tutorial più tecnici, come trattare la nuvola di punti e il modello 3D per fini più professionali, dal DTM alla classificazione della point cloud fino alla generazione di ortofoto per ambienti CAD.

Ricorda che lavoriamo al fianco dei professionisti per collaborare con loro nella perfetta riuscita dei loro progetti: se sei alle prime armi, vuoi migliorare la resa dei tuoi elaborati o semplicemente sfruttare la nostra conoscenza nel campo per i tuoi progetti, non esitare a contattarci con il form sottostante.

Nel prossimo HOW TO passeremo a lavorare con Pix4D Mapper, in seguito Zephyr Aerial, e alla fine del percorso vedremo come lavorare con le nuvole di punti per applicazioni professionali.

Contattaci

    Legend
    1. Tuo nome (required)
    2. Tua email (richiesto)
    3. Oggetto
    4. Tuo messaggio
    5. Inviando il modulo autorizzi al trattamento dei dati contenuti nin esso contenuti, inclusi quelli personali art. 13 GDPR 679/16, per le finalità descritte, in accordo alla Privacy Policy che dichiari di aver letto
    6. Affinché questo modulo funzioni è necessario abilitare i cookie per il marketing nell'apposito pannello

    * Richiesto

    Nessuno dei dati inseriti nel form e inviati verrà conservato sul server o all'interno di questa piattaforma.

    [wpgdprc "By using this form you agree with the handling of your data by this website."]

    Posted by The Staff in Droni

    HOW TO: aerofotogrammetria con drone e Agisoft Photoscan. Elaborazione

    Nora Terme a Mare: aerofotogrammetria da drone

    Eccoci giunti al secondo appuntamento con il nostro tutorial tecnico sull'aerofotogrammetria da drone. In questi primi appuntamenti stiamo trattando il software Agisoft Photoscan.

    Nella precedente puntata abbiamo visto come pianificare la missione, acquisire le informazioni metriche, scattare le immagini, elaborarle in post-produzione e abbiamo infine visto come importarle nel software. Proseguiamo ora il nostro percorso dando avvio alla pipeline di elaborazione vera e propria.

    HOW TO: aerofotogrammetria con drone e Agisoft Photoscan. Introduzione (parte 1)

    HOW TO: aerofotogrammetria con drone e Agisoft Photoscan. Il modello 3D (parte 3)

    Aerofotogrammetria step 6: allineamento di immagini

    Il primo step di elaborazione è l'allineamento di immagini, ovvero quell'image matching che abbiamo descritto nel precedente appuntamento. Il programma individua una serie di feature per ogni immagine, risolvendo le equazioni di collinearità: questa operazione consente di orientare le camere nello spazio individuando i punti omologhi tra le immagini. Tali punti verranno inoltre sfruttati per accoppiare le immagini tra loro. Il risultato sarà una nuvola di punti sparsa nella quale ogni punto corrisponde alle coordinate 3D dei punti di legame individuati.

    Per prima cosa importiamo le fotografie (stiamo utilizzando la versione demo che non consente il salvataggio del progetto) nel nostro progetto: questo creerà automaticamente un chunk o parte di progetto. Poiché le nostre fotografie sono state scattate da un drone, ad ogni immagine vengono associati dei dati EXIF che contengono informazioni di latitudine e longitudine. Queste informazioni vengono riconosciute dal software che infatti nello spazio modello visualizzerà una serie di punti: ad ogni punto è naturalmente associata un'immagine.

    Affinché queste informazioni, oltre che presenti, siano anche visibili, dovrete verificare che sia attiva l'icona camera (indicata dalla freccia rossa), che nella versione italiana corrisponde al comando Mostra Immagini:

    Aerofotogrammetria da drone e Agisoft Photoscan: importazione immagini

    Quelli che vedete nello spazio modello sono soltanto le posizioni stimate delle camere: Photoscan ancora non sa come sono orientate queste camere, compito che appartiene al comando Menù --> Processi --> Allinea foto.

    Attivando questo comando, si aprirà un pannello con le impostazioni di elaborazione: questa fase è la base di ogni progetto, bisognerà indicare i corretti parametri senza appesantire troppo il calcolo. Vediamo le voci nel dettaglio:

    • Precisione: determina il numero di feature che verranno individuate in ogni immagine. Tanto maggiore sarà questo numero, tanto più densa sarà la nuvola di punti da cui estrarre il modello 3D. Generalmente un primo match di controllo si fa molto velocemente con l'impostazione Bassa (Low): verranno individuati qualche migliaio di punti. Con l'impostazione Media (Medium) vengono individuati tra i 15.000 e i 20.000 punti. Con l'impostazione Alta (High) possono essere individuati anche 70.000 punti e oltre (fino a 120.000 per un sensore full frame come quello di una Canon 5D Mark II). Con l'impostazione Massima (Maximum) non c'è limite alle feature individuate dal programma, che virtualmente assegna un punto ad ogni pixel, e viene limitato soltanto nelle impostazioni avanzate alla voce Limite punti chiave: 150.000 per questo valore e 25.000 per il Limite punti di vincolo sono sufficienti. Si consideri che maggiori sono i punti da allineare, più tempo ci vorrà, anche se l'effetto è quello di aumentare la qualità del modello. Ma attenzione, non sempre un numero straordinario di punti restituisce un modello effettivamente migliore: a fronte di decine di ore di calcolo in più, si potrebbero guadagnare appena pochi punti percentuali di precisione.
    • Preselezione foto georeferenziate: questa impostazione dice al software di ricordarsi che naturalmente è più probabile trovare il matching tra due camere vicine (in base a latitudine e longitudine) che non tra due camere lontane. Quindi i punti omologhi verranno cercati solo tra immagini vicine, velocizzando moltissimo l'operazione di image matching. Questa opzione non va attivata nel caso di operazioni di fotogrammetria terrestre con camere senza GPS.

    Per far comprendere meglio questo processo, aggiungiamo che le immagini nelle quali ricercare i punti di vincolo vengono trattate in questo modo:

    • Highest: l'immagine è scalata con fattore di 4x in aumento (quindi è 4 volte più grande)
    • High: l'immagine è trattata alla sua scala originale
    • Medium: l'immagine è scalata con fattore di 4x in diminuzione (quindi è 4 volte più piccola)
    • Low: l'immagine è scalata con fattore di 16x in diminuzione (quindi è 16 volte più piccola)

    Come vedete, a seconda del numero di pixel da analizzare aumentano le feature individuabili ma contestualmente i tempi di elaborazione. E naturalmente viceversa.

    Al termine del processo, che con parametri medi dovrebbe durare pochi minuti su una workstation low-budget (nel tutorial corrente stiamo analizzando 190 immagini scattate da un DJI Spark), apparirà nel modello una nuvola di punti sparsi e adesso a ogni punto sarà associata un'immagine correttamente orientata.

    Oneri computazionali

    Aggiungiamo anche in questo caso due righe sul calcolo necessario a portare a termine questa operazione: come indica la stessa Agisoft, portare a termine il processo di image matching richiede un ammontare di memoria RAM dipendente dal numero di foto appartenenti al chunk. Si parla unicamente di numero di immagini, la loro dimensione come scritto prima incide soltanto sul tempo di calcolo.

    Fotografie 100 200 500 1000 2000 5000 10000
    RAM 500MB 1GB 2.5GB 5GB 10GB 25GB 50GB

    Si può subito notare come ad un numero doppio di immagini da analizzare, corrisponda una quantità doppia di RAM da possedere nel sistema.

    Ottimizzazione dell'allineamento

    Prima di proseguire, lanciamo il comando Ottimizza immagini: facciamo clic con il tasto destro sul Chunk 1 --> Elabora --> Ottimizza immagini. Il perché è presto detto: Photoscan nella fase di allineamento ha ricostruito i 7 parametri affini di trasformazione lineare (3 parametri per la traslazione, 3 per la rotazione e 1 per il ridimensionamento). Non può tuttavia rimuovere la componente non lineare che spesso causa piccoli errori nel modello: queste deformazioni non lineari si possono correggere, se presenti, con questa ottimizzazione, che dura davvero pochi secondi.

    Aerofotogrammetria da drone e Agisoft Photoscan: ottimizza immagini

    Aerofotogrammetria da drone e Agisoft Photoscan: fase di ottimizzazione delle immagini

    Clicca e acquista DJI Spark, il miglior drone "trecentino" in Italia, nell'unico store DJI ufficiale in Italia. Aiuterai questo blog

    Aerofotogrammetria step 7: correzione metrica del progetto

    Prima di arrivare alla generazione definitiva del modello, è conveniente introdurre una fase intermedia di avanzamento per poi tornare indietro e proseguire più speditamente.

    Andiamo in Processi --> Generazione maglia 3D. Poiché il processo sarà basato su una nuvola di punti di tipo sparso ottenuta con parametri medi, la poligonalizzazione della medesima produrrà un modello in pochi secondi ma molto piatto. Questa fase a noi serve per individuare sul modello i marker: per fare questo, il colore dei poligoni non è sufficiente, pertanto attiviamo subito dopo il comando Processi --> Genera texture. Questi comandi li spiegheremo con più puntualità nei prossimi step.

    Ecco che "magicamente" vediamo apparire nello spazio modello il nostro edificio, a bassa risoluzione, ma con particolari ben evidenti, ad esempio strade, finestre e altro ancora, che potremo aver misurato e preso come riferimento. Ora ruotando il modello portiamoci nei nostri punti-marker, ad esempio gli spigoli di una finestra: facciamo clic con il tasto destro e poi sul comando Aggiungi marcatore. Nello spazio modello ora appare un punto con una bandierina blu e relativa etichetta con nome.

    Attiviamo il pannello inferiore Foto e noteremo che anche accanto alle immagini sono apparse delle bandierine blu e/o bianche: le bandierine blu indicano i marker visibili in foto, quelle bianche i marker presenti in foto ma nascosti.

    Aerofotogrammetria da drone e Agisoft Photoscan: aggiunta marker

    Ora se facciamo doppio clic su una delle immagini contenenti i marcatori con bandierina blu, la attiveremo nel riquadro principale: zoomiamo sul marcatore e selezionandolo con il mouse spostiamolo nella posizione corretta. Ripetendo questa operazione per tutte le immagini contenenti le bandierine blu (operazione lunga ma necessaria per ottenere una metrica precisa e accurata), noteremo come le bandierine e i marcatori sono diventati verdi (vd fotomontaggio sottostante). Questa è la necessaria operazione manuale che differenzia davvero un progetto di aerofotogrammetria da un progetto di Computer Vision.

    Aerofotogrammetria da drone e Agisoft Photoscan: posizionamento marker

    Riallineamento delle immagini

    In sostanza sono stati introdotti dei punti di vincolo a cui il software si dovrà attenere: questa operazione diventa utile anche quando per un qualsiasi motivo vi fossero delle immagini non allineate all'interno del chunk. Individuando almeno 4 punti sull'immagine non allineata e individuando i medesimi 4 marker in almeno 2 immagini del dataset allineato, sarà possibile procedere a un allineamento parziale delle immagini senza matching per le quali il software utilizzerà i 4 marker individuati come punti di vincolo certi.

    Allineamento di chunk o parti

    I marcatori sono importanti anche per l'allineamento di chuck: abbiamo detto più volte che un progetto può essere diviso in parti. Le ragioni principali per fare ciò risiedono nella potenza del computer, che potrebbe non essere in grado di sopportare un elevato numero di immagini, oppure nell'integrazione dati, laddove ad esempio uno stesso edificio viene ripreso sia dall'alto che da terra, magari con un sensore diverso, per coprire le zone d'ombra. Anche se gli algoritmi basati su immagini lavorano per riconoscimento di punti omologhi, è bene che fonti diverse vengano trattate in maniera diversa: questo perché ogni coppia sensore+obiettivo ha una distorsione propria e una dimensione d'immagine propria, processare insieme le immagini provenienti da fonti diverse, ancorché possibile, degrada la qualità metrica del progetto. Trattando le fonti come parti diverse, ovvero chunk diversi di un stesso progetto, è possibile allinearli attraverso i marker per fondere le nuvole di punti finali, ognuna con elevata precisione metrica.

    Vedremo questo passaggio alla fine del tutorial.

    Bene, anche oggi siamo giunti alla conclusione di questa puntata. Abbiamo visto come caricare le immagini, allinearle, ottimizzarle e inserire i marcatori che ci saranno utili per la correzione metrica del nostro progetto.

    Nel prossimo appuntamento vedremo come scalare il modello, generare la nuvola di punti densa e partendo da questa generare i prodotti derivati, a cominciare dalla mesh 3D texturizzata.

    Ricorda che lavoriamo al fianco dei professionisti per collaborare con loro nella perfetta riuscita dei loro progetti: se sei alle prime armi, vuoi migliorare la resa dei tuoi elaborati o semplicemente sfruttare la nostra conoscenza nel campo per i tuoi progetti, non esitare a contattarci con il form sottostante.

    Contattaci

      Legend
      1. Tuo nome (required)
      2. Tua email (richiesto)
      3. Oggetto
      4. Tuo messaggio
      5. Inviando il modulo autorizzi al trattamento dei dati contenuti nin esso contenuti, inclusi quelli personali art. 13 GDPR 679/16, per le finalità descritte, in accordo alla Privacy Policy che dichiari di aver letto
      6. Affinché questo modulo funzioni è necessario abilitare i cookie per il marketing nell'apposito pannello

      * Richiesto

      Nessuno dei dati inseriti nel form e inviati verrà conservato sul server o all'interno di questa piattaforma.

      [wpgdprc "By using this form you agree with the handling of your data by this website."]

      Posted by The Staff in Droni

      HOW TO: aerofotogrammetria con drone e Agisoft Photoscan. Introduzione

      Aerofotogrammetria da drone: rilievo delle Terme a Mare di Nora

      Cenni storici

      La fotogrammetria, letteralmente "misurare con la luce" (dal greco), è una tecnica di rilevamento che consente l'acquisizione 3D ovvero le caratteristiche geometriche di un oggetto attraverso il processamento congiunto di 2 o più immagini che lo ritraggono da posizioni differenti.

      Questa tecnica vede le sue basi fondanti nella geometria descrittiva e in particolare sulle leggi della prospettiva, note fin dal Rinascimento grazie agli studi del Brunelleschi e di Leonardo da Vinci tra gli altri: le basi matematiche su cui si fonda la fotogrammetria furono poste nel 1759 dal matematico e fisico Johann Heinrich Lambert, nella sua opera Perspectiva liber.

      I primi esempi noti di utilizzo di questa tecnica risalgono al 1858, quando il giovane architetto Albrecht Meydenbauer, utilizzò delle fotografie per ottenere informazioni metriche della cattedrale di Wetzlar, "aggirando" in tal modo il rischio di perdere la vita per eseguire misure dirette. Nel 1859 una relazione del colonnello Aimè Laussedat di fronte alla Commissione dell'Accademia delle Scienze di Parigi, spiegò come fosse possibile ottenere coordinate a terra da una coppia di immagini fotografiche dall'alto, mediante intersezione spaziale dei raggi. Nel 1919 Umberto Nistri effettua per l’Ufficio dell’Agro romano il rilievo fotogrammetrico di un tratto delle rive del Tevere, con capisaldi sistemati e rilevati a terra: è la nascita dell'aerofotogrammetria italiana.

      Sotto il profilo dell'acquisizione delle immagini, le prime tracce per la formazione elementare di immagini fotografiche le troviamo nel trattato sistematico di ottica del matematico arabo Alhazer, uscita attorno all'anno 1000 e tradotta in latino nel 1270 col titolo di Opticae thesaurus, laddove si può leggere la descrizione di ciò che a tutti gli effetti è una camera stenopeica. Il grande sviluppo delle macchine fotografiche appartiene naturalmente al XIX secolo, mentre negli anni '90 del XX secolo iniziò l'era della fotogrammetria digitale.

      Fotogrammetria o Computer Vision?

      Prima di iniziare qualsiasi discorso di elaborazione, è bene subito chiarire una differenza tecnica e scientifica, poco nota: quando il progetto di acquisizione 3D è finalizzato all'ottenimento di informazioni metriche precise e accurate, si può parlare di fotogrammetria. Quando invece è finalizzato alla semplice visualizzazione, ovvero non vengono apportate le necessarie correzioni metriche, è più corretto parlare di Computer Vision, o visione artificiale.

      Infatti entrambe le tecniche mirano a riprodurre l'ambiente reale in 3D partendo da immagini 2D, e per ottenere questo possono utilizzare gli stessi software: ma la prima crea un modello metricamente accurato, la seconda un modello approssimato.

      Specificando meglio, la Computer Vision si basa su un processo di fatto completamente automatico, dove l'intervento umano è praticamente nullo: si veda a tal proposito il sistema Autopilot sviluppato da Tesla per le sue macchine. Mentre la fotogrammetria richiede sempre e comunque una certa dose di intervento da parte di un operatore.

      HOW TO: aerofotogrammetria con drone e Agisoft Photoscan. Elaborazione (parte 2)

      HOW TO: aerofotogrammetria con drone e Agisoft Photoscan. Il modello 3D (parte 3)

      Il matching automatico

      Ciò di cui ci accingiamo a parlare è quel settore della tecnica fotogrammetrica che si occupa della correlazione automatica delle immagini (image matching): lo sviluppo degli algoritmi per la correlazione di immagini ha visto nel Least Squares Matching (Gruen 1985) il metodo più efficace per gli algoritmi area-based, esteso poi a più immagini simultaneamente e chiamato Multi-Photo Geometrical Constraints (MPGC) Least Squares Matching (Gruen e Baltsavias 1988), poi ripreso e ulteriormente sviluppato anche per le immagini terrestri convergenti (Remondino 2008).

      Tra gli algoritmi features-based il più noto è lo Scale-invariant feature transform (SIFT, Brevetto US 6,711,293) sviluppato da David Lowe nel 1999. Lo stesso software che stiamo per descrivere, ovvero Agisoft Photoscan, si basa su un principio simile al SIFT, ma utilizzando differenti algoritmi di processamento rispetto alla pipeline di SIFT (Bundler+PMVS2+CMVS).

      Bisogna sottolineare come in ogni caso, la correlazione automatica delle immagini presenti ancora alcuni aspetti problematici e irrisolti come la presenza di aree monocolore o pattern geometrici, oggetti in movimento (ad es. pedoni e macchine), gli artefatti radiometrici (ad es. purple fringing e aberrazioni cromatiche), la presenza di oggetti trasparenti o a specchio o riflettenti (ad es. l'acqua), l'occlusione di alcuni punti. Tali problemi sono maggiormente evidenti nella fotogrammetria terrestre, laddove nell'aerofotogrammetria si presentano più limitati.

      Aerofotogrammetria da drone: equazioni di collinearità

      Aerofotogrammetria step 1: pianificare il volo

      All'inizio del post abbiamo scritto che la fotogrammetria è l'arte di misurare con le immagini. Dunque, lo step 1 è l'acquisizione delle immagini. Poiché parliamo di aerofotogrammetria da drone, ovvero fotografia da remoto, il primo problema da affrontare è la pianificazione della missione di volo.

      Sorvoliamo su tutti gli aspetti legati alle autorizzazioni al volo con APR, che s'intendono possedute a questa fase del lavoro. Parliamo invece delle due tipologie di progetto fondamentali:

      • Heightfield, ovvero un'immagine usata in computer grafica che contiene informazioni relative all'elevazione della superficie
      • Arbitrary 3D, un modello 3D vero e proprio, dettagliato e particolareggiato dell'ambiente reale

      Nel primo caso, la pianificazione del volo dovrà prevedere una posizione della camera a 90°, ovvero nadirale (rivolta verso il basso); nel secondo caso si programmerà un volo con camera obliqua, statisticamente tra 45° e 60° di inclinazione. Nulla vieta che si possano programmare missioni miste, ad esempio quando si vuole riprodurre la presenza di un capannone al centro di un campo agricolo. Il campo verrà ripreso in modalità nadirale, il capannone in modalità obliqua. Altro esempio è quello di una chiesa: tetto in modalità nadirale, pareti in modalità obliqua. La complessità di un tale edificio impone un maggior numero di missioni, che vanno dalla missione circolare attorno al campanile, a missioni verticali lungo le pareti dell'edificio.

      Affinché l'image matching sia portato a termine, si consiglia una sovrapposizione di immagini orizzontale del 60-80%, laterale di almeno il 70%: questo si rende necessario poiché nel caso del processamento automatico di immagini, 3 punti omologhi appartenenti allo stesso oggetto devono essere visibili su 3 immagini differenti, meglio se 5. Con applicazioni di volo automatico sarà più semplice ottenere questo risultato, nel caso del volo manuale bisogna ricordarsi in particolare quest'ultimo parametro e ricordarsi dove si è volato: naturalmente in queste condizioni meglio abbondare nel numero di fotografie, si potrà fare una selezione a posteriori, in fase di elaborazione.

      Altezza del volo

      È fondamentale anche scegliere correttamente l'altezza del volo o la distanza dall'oggetto: ogni fotocamera, ovvero ogni coppia sensore+obiettivo, è in grado di distinguere una determinata dimensione di un particolare in base alla distanza dal soggetto. Per calcolare questo parametro si applica una semplice formula, che restituisce il cosiddetto GSD, ovvero il Ground Sampling Distance: quanta porzione di terreno è in grado di discriminare una camera se posta a 40 metri di distanza? In questo caso conta molto la dimensione del sensore e il numero di pixel, che definiscono la sua densità di campionamento: un pixel piccolo sarà in grado di leggere maggiormente il dettaglio, d'altronde un pixel piccolo non sarà in grado di catturare la luce come i pixel più grandi (a parità di dimensione sensore). In rete esistono diversi tool gratuiti che semplificano questo calcolo: ciò che dovrete sapere sono le dimensioni in mm del sensore, il numero di pixel e la distanza finale. Un DJI Phantom 3 Pro lanciato a 40 metri d'altezza, catturerà un GSD di poco superiore a 1 cm, ovvero non sarà in grado di discriminare al suolo particolari più piccoli di 1 cm: se avete bisogno di registrare questi dati, sarà necessario abbassare l'altezza di volo. Un DJI Spark alla medesima altezza, potrà discriminare particolari solo se più grandi di 1,35 cm. Il parametro del GSD naturalmente avrà effetto anche sul dettaglio texture, che viene ricostruita a partire dalle fotografie.

      Aerofotogrammetria con drone: pianificazione del volo automatico

      Aerofotogrammetria step 2: acquisizione di coordinate a terra

      Abbiamo detto in precedenza che la differenza tra fotogrammetria e Computer Vision non consiste nel software usato o nel set di immagini processate, ma se il nostro progetto ha finalità di precisione metrica o meno.

      Poiché la fotogrammetria è una tecnica a luce passiva, la dimensione della scena ripresa non può essere stabilita a priori, come avviene con le tecniche a luce attiva (stazione totale, laser scanner, etc.), ma viene solo approssimata.

      Affinché il nostro progetto rientri nei parametri di precisione e accuratezza metrica, dobbiamo introdurre una fase di rilievo di coordinate sul campo. Perché questa fase precede l'acquisizione delle immagini? Perché tutti i punti che decideremo di usare per la correzione metrica, che siano marker a terra o spigoli notabili di un edificio, dovranno poi essere perfettamente visibili e riconoscibili nelle fotografie.

      L'utilizzo di strumentazione professionale, sotto questo profilo, risulta decisivo: tanto migliore sarà la precisione strumentale, tanto migliore sarà la precisione metrica del progetto, anche al netto degli errori di posizionamento dei marker all'interno del software. Generalmente i due strumenti che conviene utilizzare sono la stazione totale e il GNSS (Global Navigation Satellite System) di tipo differenziale, lo strumento in grado di geolocalizzare un punto attraverso i satelliti. Nel primo caso, si può stimare una precisione anche entro i 5 mm, sia orizzontale che verticale, nel secondo una precisione in modalità solo rover di 1-3 cm in orizzontale, 3-5 cm in verticale, a meno che non venga usata la modalità statica, che migliora la precisione. Senza entrare troppo nel dettaglio, aggiungiamo anche che la prima tecnologia restituisce coordinate in un sistema locale, la seconda fornisce coordinate geografiche, che oltre a fornire adeguate informazioni metriche, aggiunge al progetto anche le informazioni geografiche necessarie alla generazione di una immagine di tipo GeoTIFF.

      La materializzazione sul terreno dei punti da convertire in marker, anche chiamati GCP (Ground Control Point) avviene generalmente con dei semplici quadrati in B/N  o B/R a triangoli contrapposti, che individuano un punto al centro del quadrato stesso. La dimensione di queste tavole deve essere calcolata in funzione della risoluzione del sensore e della distanza del medesimo dal soggetto: tendenzialmente, riprese aerofotogrammetriche richiedono la materializzazione a terra di tavole di almeno 40 cm, se non anche 50 cm di lato.

      La disposizione dei GCP attorno al modello deve perseguire un criterio di intelligenza: se sto rilevando un quadrato, disporrò 4 punti agli angoli e un paio di punti al centro. Se sto rilevando un fabbricato, disporrò una serie di punti attorno all'edificio. È importante in questa fase avere un numero sufficiente di GCP (dipendente dalla dimensione del modello) disposti randomicamente all'interno dell'intera area di rilievo, quindi come scritto non tutti in un angolo o in un lato del modello, ma in tutti gli angoli e in tutti i lati. Vedremo nella fase di correzione metrica che effetti determina una corretta disposizione dei GCP sulla precisione metrica del nostro rilievo aerofotogrammetrico.

      Aerofotogrammetria da drone: rilievo marker a terra con GNSS

      Scopri il nostro servizio di noleggio stazione totale in tutta Italia

      Aerofotogrammetria step 3: acquisizione di immagini

      Programmato il volo, prima di partire è necessario verificare le impostazioni della camera: alcune app per il volo automatico, come Pix4D Capture, non consentono questa fase, limitandosi a impostare la camera con parametri standard e formato jpeg. Ma altre app come DJI GS Pro (solo iPad e solo droni DJI) consentono il controllo di camera. In precedenza sono stati citati gli errori radiometrici come uno dei fattori limitanti di un progetto aerofotogrammetrico basato su image matching automatico: il sistema migliore per correggerli è scattare nel cosiddetto formato RAW, che consente una grande potenza di post-elaborazione in grado di rendere lo scatto quasi perfetto per fini fotogrammetrici. Anche in questo caso, alcune limitazioni vengono dalla tecnologia (limitandoci a droni DJI RtF), laddove lo scatto in RAW è consentito su droni della serie Mavic e Phantom, ma non ad esempio sullo Spark, il più diffuso drone trecentino in Italia. La focale in genere è per lo più fissa, ma è possibile variare alcuni parametri di scatto al fine di renderli conformi alla luce ambientale.

      Lo scatto in RAW consente anche la profilazione colore della fotocamera, laddove sia richiesta una texturizzazione fedele dell'oggetto digitale. Qualora si utilizzino macchine fotografiche applicate alla gimbal (ad esempio il caso di una Sony Alpha7 sotto un Matrice o un S900, o la Yuneec CG04 basata su tecnologia Panasonic nel caso del Typhoon H920 Plus), è sempre bene verificare una corretta lunghezza focale in proporzione alla distanza di scatto, con il calcolo del GSD sopra specificato.

      Bisogna sempre ricordare che per portare a termine correttamente questa fase è necessario avere cognizioni fotografiche approfondite, che vi consentiranno di conoscere il vostro strumento e adattarlo perfettamente alle vostre esigenze. D'altronde, anche se la finalità degli scatti è l'elaborazione in una pipeline fotogrammetrica, ciò non toglie che sempre di fotografie si tratta.

      Clicca e acquista DJI Spark, il miglior drone "trecentino" in Italia, nell'unico store DJI ufficiale in Italia. Aiuterai questo blog

      Aerofotogrammetria step 4: elaborazione delle immagini

      Siamo ancora nella fase preliminare del nostro progetto aerofotogrammetrico, ma nella fase fondamentale del lavoro: l'elaborazione delle immagini, dove andremo ad apportare tutte le correzioni radiometriche necessarie a rendere la nostra immagine migliore per l'image matching.

      Fattore assolutamente fondamentale, in questa fase del lavoro non bisognerà mai modificare la dimensione dell'immagine o la distorsione dell'immagine. Gli algoritmi di image-matching sfruttano proprio questi dati, contenuti nell'EXIF, per riconoscere la camera e apportare le correzioni secondo il proprio database o secondo le informazioni fornite dall'utente nel processo di pre-calibrazione.

      Le correzioni di base, legate al purple fringing (scarsamente presente nelle fotografie dall'alto), alle aberrazioni cromatiche, alla vignettatura del sensore, al profilo colore, correggono l'immagine senza toccare questi parametri e generalmente tali correzioni vengono applicate automaticamente dai software di elaborazione immagini, come Adobe Lightroom e simili.

      Tutto questo si ottiene molto meglio, senza degradare l'immagine, qualora l'originale sia nel cd formato RAW: il JPEG consente interventi più limitati, ma ugualmente importanti.

      Ci sono invece due tecniche di miglioramento delle immagini (enfatizzazione) che sono invece "manuali": si tratta del miglioramento del contrasto e del miglioramento della luminosità. Questi parametri agiscono direttamente il primo sui valori radiometrici dell'immagine, il secondo sui valori DN presenti nell'istogramma. È importante che questi valori siano trattati in maniera lineare, attuando spostamenti costanti e contemporanei dei livelli di densità. Se questo provoca una "chiusura delle ombre", è bene aprirle leggermente per aumentare il dettaglio in quell'area; attenzione anche a eventuali effetti sulla saturazione del colore. Bisogna ricordare che in questa fase ciò che interessa ottenere non è una foto da copertina, ma una foto buona per l'image matching fotogrammetrico. A volte una fotografia flat, poco contrastata e leggermente piatta, ma con una corretta definizione radiometrica dei particolari, risulta migliore di una fotografia eccessivamente contrastata, che aiuta il software nel riconoscimento delle feature ma al tempo stesso degrada la texture finale. Questa fase è decisiva affinché il processamento sia corretto dall'inizio alla fine del progetto.

      Aerofotogrammetria da drone: elaborazione immagini

      © Paolo Allodoli 2018. Chiesa di San Biagio a Lendinara: DJI Spark rif. ENAC 18238

      Una funzione molto interessante di Photoscan, è il valore image quality, che vedremo più oltre. Offre la possibilità di determinare quanto buone sono le immagini per il calcolo, restituendo un valore da 0 (pessimo) a 1 (eccellente). L'utente può determinare una soglia di qualità, ad esempio 0,5: tutte le immagini che non dovessero raggiungere questo valore, verranno automaticamente scartate dal software. Molto utile ad esempio per tagliare via senza sforzo immagini sfuocate, povere di contenuto radiometrico. Bisogna solo fare attenzione a non inficiare la ridondanza di dato: se notate che vi sono troppe foto sotto questo valore, dovrete abbassarlo, ma avrete comunque la coscienza che qualcosa è stato sbagliato in fase di acquisizione.

      Aerofotogrammetria step 5: processamento di immagini

      Finalmente il nostro set di dati è pronto per l'analisi fotogrammetrica. Ai fini di questa serie di tutorial, utilizzeremo il software Agisoft Photoscan, di tipo commerciale.

      Scarichiamo la versione demo dal sito: essa consente l'uso illimitato del software in tutte le sue funzionalità, tranne quelle di esportazione e salvataggio. Esiste anche la versione trial, che dura 30 giorni ma che consente la modalità full, ideale per grandi progetti che richiedono molte ore di elaborazione, in vista del potenziale acquisto del software. Ricordiamo che per l'elaborazione di progetto aerofotogrammetrici è necessario lavorare con la versione Professional.

      Photoscan, come ogni altro software di elaborazione, richiede un PC performante, o meglio una Workstation per funzionare al meglio: i requisiti minimi per completare correttamente progetti che possono arrivare a richiedere anche 1000 immagini sono 32-64GB di RAM, una CPU Intel almeno quad-core (la serie Kaby Lake prevede oltre 4Ghz di base di potenza), e una GPU OpenCL o CUDA compatibile, consigliata almeno una nVidia GeForce GTX 1060.

      Scopri la nostra Workstation low-budget per il calcolo fotogrammetrico

      Installiamo il software e avviamolo: l'ultima versione disponibile al momento di scrivere questo articolo è la 1.4.1, che ha finalmente aggiunto la traduzione italiana.

      Nella parte superiore dell'interfaccia troviamo il menu e la barra degli strumenti. A sinistra troviamo il pannello del Progetto e la scheda Georeferenze; in basso la Console; al centro ad occupare la porzione più grande il riquadro per la visualizzazione del Modello, nativamente impostata con visualizzazione in Prospettiva a 30°: sarà sufficiente premere il tasto 5 sul pad numerico della tastiera per attivare la visualizzazione Ortografica.

      Aerofotogrammetria con drone: Agisoft Photoscan interfaccia

      La voce Processi del menù prevede già la sequenza corretta per portare a termine il nostro progetto: dunque clicchiamo su Aggiungi foto e rechiamoci sul nostro hard disk alla ricerca del set di immagini da elaborare.

      Vedremo più avanti come rendere semiautomatiche alcune o tutte le operazioni previste grazie alla funzione batch Processa in sequenza.

      Aerofotogrammetria da drone: Agisoft Photoscan aggiungi foto

      Importate le immagini, il programma crea automaticamente il cd Chunk 1. Ogni progetto può avere numerosi chunk, ovvero parti del medesimo che possono essere elaborate in maniera separata e poi unite successivamente, ad es. nel caso non si posseggano PC particolarmente performanti (tipico caso dei portatili).

      In Strumenti --> Calibrazione fotocamera, dobbiamo verificare che siano stati riconosciuti correttamente i dati EXIF delle immagini: tendenzialmente in progetti processati secondo questa pipeline, ma in generale per la fotogrammetria, è bene ovvero è meglio che tutte le immagini provengano dalla stessa sorgente (ovvero la stessa coppia sensore-obiettivo) e che questa abbia la medesima lunghezza focale per tutti gli scatti. All'interno di questo pannello possiamo anche caricare la pre-calibrazione del sensore, operazione facilmente eseguibile (che vedremo in un futuro tutorial) e che di certo aiuterà il software a migliorare la gestione generale del progetto. Altrimenti possiamo lasciare che ogni volta il programma risolva le equazioni di collinearità calibrando automaticamente la camera con i parametri di scena. In questa finestra verifichiamo anche che che la fotocamera tipo sia stata riconosciuta correttamente: Photoscan, oltre che con le immagini rettangolari (Fotogramma tipo) è infatti in grado di lavorare anche con immagini Fisheye (tipo GoPro), Sferiche (le panografie) e Cilindriche (i panorami a 360°).

      Aerofotogrammetria da drone: Agisoft Photoscan calibrazione fotocamera

      Per oggi siamo giunti alla conclusione di questa puntata. La prossima volta inizieremo il processamento vero e proprio delle immagini, lavorando sui parametri previsti.

      Ricorda che lavoriamo al fianco dei professionisti per collaborare con loro nella perfetta riuscita dei loro progetti: se sei alle prime armi, vuoi migliorare la resa dei tuoi elaborati o semplicemente sfruttare la nostra conoscenza nel campo per i tuoi progetti, non esitare a contattarci con il form sottostante.

      Contattaci

        Legend
        1. Tuo nome (required)
        2. Tua email (richiesto)
        3. Oggetto
        4. Tuo messaggio
        5. Inviando il modulo autorizzi al trattamento dei dati contenuti nin esso contenuti, inclusi quelli personali art. 13 GDPR 679/16, per le finalità descritte, in accordo alla Privacy Policy che dichiari di aver letto
        6. Affinché questo modulo funzioni è necessario abilitare i cookie per il marketing nell'apposito pannello

        * Richiesto

        Nessuno dei dati inseriti nel form e inviati verrà conservato sul server o all'interno di questa piattaforma.

        [wpgdprc "By using this form you agree with the handling of your data by this website."]

        Posted by The Staff in Droni