Da qualche tempo si parla di Lucky Imaging nella astrofotografia amatoriale del cielo profondo ( Deep Sky ), ma a dire il vero con una indicazione impropria, in quanto per L I si intende la possibilità di ottenere delle esposizioni fortunate ( lucky exposures da David L. Fried nel 1978 ) in una lunga serie di scatti. Durante le prime applicazioni si era generalmente convinti del fatto che l'atmosfera sfocasse l'immagine degli oggetti astronomici e la FWHM dello sfocamento era stimata ed utilizzata nella cernita delle esposizioni. Le immagini riprese dai telescopi di terra sono soggette agli effetti distorsivi delle turbolenze atmosferiche (responsabili del fenomeno della scintillazione). Molti programmi di imaging astronomico richiedono delle risoluzioni più alte di quanto sia possibile ottenere senza un qualche fattore di correzione delle immagini. Il lucky imaging è una delle tecniche utilizzate per limitare gli effetti atmosferici. Utilizzata ad una selezione pari o inferiore all'1%, questa tecnica permette di raggiungere il limite di diffrazione persino di un telescopio da 2,5 m di apertura, migliorando la risoluzione di un fattore 5 rispetto agli altri sistemi standard di formazione dell'immagine. Il principio di base è che la turbolenza atmosferica che normalmente limita la risoluzione delle osservazioni a terra è un processo statistico. Se le immagini vengono scattate abbastanza velocemente da congelare il movimento causato dalla turbolenza, scopriamo che un numero significativo di fotogrammi è molto nitido, in effetti, dove le fluttuazioni statistiche sono minime. Combinando queste immagini nitide possiamo produrne una molto migliore di quanto sia normalmente possibile da terra.
Ma la lunghezza delle esposizioni parlando di vera e propria Lucky Imaging si attesta a frazioni di secondo, mentre il numero di frames è molto alto attestandosi anche a decine di migliaia di frames. E’ per questo che in queste righe voglio parlare piu’ propriamente di Tecnica delle Esposizioni Brevi a livello amatoriale, intendendo in questo caso esposizioni che vanno da 1” fino ad un massimo di 20” – 30” , limite che secondo me viene posto dal fatto di non utilizzare un sistema di autoguida, e vincolato quindi anche dalla lunghezza focale utilizzata. Ed un numero ragionevole di frames che possono andare da qualche centinaio a poche migliaia. Questa tecnica è già usata e consolidata da molto tempo in alta risoluzione ( Hi-Res ), nella fotografia planetaria e lunare, con lo stesso principio e tramite la selezione di filmati dove viene impiegato un certo numero si scatti al secondo, sempre con lo stesso scopo di congelare il seeing. Ma nella fotografia del profondo cielo sta affacciandosi da poco tempo, in concomitanza con lo sviluppo ed il perfezionamento di sensori adatti allo scopo, i sensori CMOS, divergendo dalla tecnica tradizionale che faceva uso di sensori CCD e della tecnica della lunga posa. E da qui bisogna iniziare a fare chiarezza, evitando di cadere in “ luoghi comuni “, andando a conoscere meglio il funzionamento e le caratteristiche del sensore CMOS , e poi andando a selezionare gli oggetti che piu’ si rendono adatti ad essere fotografati con questa tecnica.
Il sensore CMOS
Sia la tecnologia CCD che la tecnologia CMOS si basano sull’utilizzo di diodi fotosensibili. L’unità fotosensibile, il diodo,viene colpito da un raggio di luce che viene convertito in carica elettrica grazie al cosiddetto effetto fotoelettrico (il principio fu scoperto da Albert Einstein e che gli valse il Nobel per la Fisica nel 1921).
In un sensore CCD, acronimo di Charged-Coupled Device (Dispositivo ad Accoppiamento di Carica), la carica accumulata da ogni elemento fotosensibile (pixel) viene trasferita verso un numero limitato (spesso anche solo uno) di nodi di uscita per essere poi convertita in volt e veicolata come un segnale analogico verso il convertitore analogico/digitale o A/D. Tipicamente il convertitore A/D ha una risoluzione di 16 bit corrispondenti a 65536 livelli di grigio. Ciascun pixel ha il solo scopo di convertire la luce in carica elettrica e l’uniformità del segnale (caratteristica distintiva del CCD) è molto elevata. Anche il rumore è molto basso. L’elaborazione successiva del segnale avviene esternamente al sensore stesso e l’elettronica utilizzata deve essere piuttosto sofisticata. Ma per quanto sofisticata sia, ha il grosso limite di introdurre un rumore di lettura piuttosto elevato se confrontato con la tecnologia CMOS. Nel sensore CMOS ogni unità fotosensibile contiene la propria circuiteria, per la conversione da numero di elettroni accumulati a tensione, mentre ogni colonna contiene l’elettronica per la conversione digitale del segnale, eventualmente già normalizzata da filtri contro il rumore, ecc. L’elaborazione del segnale avviene dunque ad alto grado di parallelismo e con un’efficienza e una velocità totale di elaborazione del segnale molto elevata. Anche se la complessità del sensore CMOS è molto piu’ elevata rispetto al CCD, le economie di scala e la continua attività di ricerca hanno permesso di assottigliare sempre di più il gap e di offrire quindi altissima tecnologia a costi sempre più accessibili.
Andiamo ad analizzare i punti piu’ importanti che caratterizzano un sensore CMOS. 1) Bassissimo rumore di lettura: I sensori CMOS di ultima generazione sono caratterizzati da un rumore di lettura (Readout Noise o RON) estremamente basso, dell’ordine di1 o 2 e-. In pratica, il contributo al rumore totale della camere CMOS nel processo di lettura del singolo frame è estremamente ridotto se comparato con il rumore di lettura tipico di una camera CCD. Questo garantisce ai sensori CMOS di ultima generazione una efficienza nettamente superiore rispetto ai CCD, efficienza che però deve essere valutata includendo anche le altre proprietà di cui andremo a parlare in seguito.I migliori sensori CCD attualmente disponibili sul mercato, presi tra quelli commercialmente disponibili per il mercato amatoriale, raggiungono valori di rumore di lettura di 4/5 e-. Il popolare sensore CCD KAF-8300 raggiunge valori di 8/9 e- nei casi migliori. Valori di RON così elevati vanno a compromettere parzialmente le prestazioni in condizioni di scarsissimo rapporto segnale/rumore (ad esempio nelle riprese a banda molto stretta) e costringono a eseguire singole pose molto lunghe per cercare di limitare il più possibile il contributo del RON nello stacking finale 2) Corrente di buio:Partiamo da un dato di fatto: nei sensori più recenti, sia che essi siano CCD o che siano invece CMOS, la corrente di buio (dark current) – che ricordiamo aumenta con la lunghezza dell’esposizione e decresce col calare della temperatura – ormai non rappresenta più un problema. Il livello di rumore accumulato nel tempo è talmente basso da poter addirittura fare a meno della calibrazione con dark frame e bias frame, a patto di riuscire a raffreddare sufficientemente il sensore. Diversi imager fanno spesso a meno dei dark frame usando un CCD basato sul diffuso sensore KAF-8300,raffreddato a –30/–40° C, cercando però di integrare molti frame, eseguire un buon dithering e utilizzare tecniche di stacking con eliminazione dei cosiddetti outliers (ad esempio algoritmi di somma complessi come Sigma Clipping, SD Mask,etc.). Con i sensori CMOS dobbiamo però tenere in considerazione le varie disuniformità che possono rilevare sui frame. Ad esempio è comune rilevare banding verticale o il già citato amp glow, un fenomeno di elettroluminescenza che può capitare sul bordo dei frame causato dall’elettronica stessa. L’amplificatore di lettura genera infatti continuamente calore (ossia radiazione infrarossa), calore che a sua volta genera elettroni sulla matrice di pixel del sensore. Questi elettroni si vanno a sommare agli elettroni che giungono sugli elementi fotosensibili dall’esterno, falsando il valore reale. Normalmente questo fenomeno è visibile nelle fotografie a lunga esposizione (appunto perché l’amplificatore è acceso per parecchio tempo) e tende a concentrarsi in una zona ben definita del sensore (tipicamente nella zona più vicina all’amplificatore stesso). È sufficiente eseguire una calibrazione con dark frame per eliminare questo alone, ma alcune soluzioni in commercio includono accorgimenti in grado di inibire la formazione dell’amp glow, anche se non sono in grado di correggere del tutto il problema. 3) Il gain (guadagno) : Una proprietà molto importante delle camere basate su sensori CMOS è la possibilità di variare il gain (o guadagno). Anche un sensore CCD ha un gain e un offset (di cui parleremo successivamente) che possono essere regolati, ma tipicamente questi valori vengono impostati in fabbrica dal produttore in modo tale da essere ottimizzati rispetto all’elettronica che accompagna il sensore, pena un decadimento netto delle prestazioni. Al più si hanno gain (e offset) diversi per differenti livelli di binning hardware (ciò non si applica ai sensori CMOS in quanto il binning avviene solamente via software,è dunque un binning fittizio). Ma cos’è il gain? In ambito elettronico il gain è l’amplificazione del segnale luminoso rilevato dal sensore, convertito in volt, per mezzo di un circuito di amplificazione dedicato. Il circuito di amplificazione riceve in input un valore di voltaggio che viene poi aumentato (amplificato) in output. Il gain si esprime dunque in e-/ADU. L’amplificazione del voltaggio (ossia del segnale luminoso convertito da e- in V) consente di abbassare ulteriormente il rumore di lettura, a scapito però della gamma dinamica che viene fortemente compressa all’aumentare del gain. Questo è il compromesso di cui dobbiamo tenere conto, e la cui spiegazione risiede nel fatto che il convertitore A/D ha una risoluzione fissa (ad esempio 12 bit).
Per questo motivo, per le lunghe esposizioni è bene non eccedere col guadagno, mentre per le esposizioni molto corte è possibile alzare di moltissimo il valore di gain. La differenza rispetto al CCD è in questo caso direttamente dipendente dall’implementazione tecnologica: nel CCD l’amplificazione avviene esternamente al sensore stesso tramite una circuiteria dedicata cui confluiscono i dati in arrivo dall’intero sensore, dunque vi è amplificazione sia del segnale sia del rumore stesso e questo rumore aumenta considerevolmente a gain particolarmente elevati. Nel CMOS, invece,l’amplificazione avviene attraverso una circuiteria dedicata a ogni colonna o addirittura a ogni elemento sensibile. Si modifica direttamente l’efficienza di conversione elettrone/tensione e vengono quindi forniti al resto dell’elettronica segnali già amplificati, di conseguenza meno sensibili ai disturbi. È per questo che il rumore di lettura nel CMOS è meno sensibile al variare del gain e anzi, alzando il gain si abbassa il rumore di lettura.4) Alta efficienza quantica L’evoluzione tecnologica dei sensori CMOS ha consentito di raggiungere valori di efficienza quantica (QE) molto elevati, quanto – se non oltre – i migliori sensori CCD. L’uso combinato di microlenti ed eventualmente della retroilluminazione (come nei sensori CMOS Sony Exmor R e Starvis) consentono punte di 70% circa di QE, con picco di sensibilità generalmente nel verde. Questo tipo di modalità operativa, che ribadiamo essere molto differente dal CCD, offre una serie di vantaggi non indifferenti:1. Grazie all’impiego di pose molto corte, l’eventuale presenza di subframe rovinati (adesempio mossi) risulterà meno penalizzante. Se perdiamo una posa da 20/30 minuti con unCCD perdiamo una fetta consistente della nostra integrazione totale, se perdiamo (anche decine) di pose da 5, 10, anche 60 secondi non ne faremo di certo un dramma. 2. A gain elevati potremo anche fare a meno dell’autoguida. Subframe da pochi secondi sono molto permissivi in tal senso ed è addirittura possibile pensare di usare sistemi altazimutali purché motorizzati. Bisognerà tenere naturalmente conto della rotazione di campo, dunque il caso è un po’ al limite, ma per certi impieghi è sicuramente possibile e in rete si trovano già diversi esempi molto interessanti. Già fare a meno dell’autoguida – fonte di grattacapi soprattutto per gli astrofotografi principianti – sarebbe un grandissimo risultato.3. L’uso di pose molto corte consente di impiegare tecniche di lucky imaging usate con profitto in alta risoluzione planetaria, e con un’accurata selezione dei frame migliori sarà possibile registrare dettagli finissimi, stelle più deboli e con aspetto più puntiforme. Si apre in sostanza la possibilità di fare una sorta di alta risoluzione del profondo cielo, specialmente su certi soggetti particolarmente brillanti e compatti, e sarà possibile ottenere immagini con un livello di dettaglio raramente visto in precedenza. 4 Abbiamo già detto che su pose molto lunghe si nota maggiormente l’effetto deleterio del seeing che si evidenzia in stelle generalmente più “grosse”. Usando pose molto corte si avrà invece una maggiore puntiformità stellare e più dettagli fini. In altre parole, per registrare il minimo dettaglio possibile dato dall’ottica sarà ora necessario un campionamento più elevato. Ecco allora che la piccola dimensione dei pixel, di cui il sensore CMOS è solitamente dotato, potrà essere ora un vantaggio. Naturalmente senza esagerare! 5. La somma di tantissime immagini di durata molto breve consente di ovviare al problema della riduzione della dinamica quando vengono impostati gain elevati. Come per l’alta risoluzione planetaria, sommando tantissime immagini si aumenta il range dinamico e la profondità in bit. La regola è molto semplice: a parità di tempo di esposizione del subframe, per duplicare il range dinamico (ossia aumentare di 1 stop la dinamica) bisognerà quadruplicare il numero di pose. Naturalmente vi potrà essere un limite pratico oltre il quale non diventa più conveniente andare. Se il sensore CMOS è invece dotato di un convertitore A/D a 14 bit il problema è meno sentito a basso guadagno.
La mia personale esperienza:
Dopo aver letto parecchio in rete e visto le foto di altri colleghi che già sfruttano questa tecnica, ho prima di tutto acquistato la strumentazione necessaria. La mia opinione personale è che questo metodo di fotografia astronomica non è adatto a tutti i soggetti, ma solo a quelli piu’ luminosi e dove bisogna tirare fuori dettaglio. Quindi sicuramente ottimo per le galassie e per le nebulose planetarie. Le galassie sono state sempre il mio debole, e fotografarle in primo piano ad alti ingrandimenti è stato sempre il mio sogno. Ho avuto in precedenza un Celestron C 8 XLT, ottimo strumento sfruttato a pieno, ma ovviamente con i suoi limiti. Il mirror-flop e l’imaging-shift sono grossi handicap di questo strumento, e quando si alza l’asticella della qualità della foto ne limitano parecchio il risultato. Con il C8 ho fatto buone foto con focale ridotta, e pochissime sfruttandolo a piena focale. Poi vedendo meravigliose foto di galassie in primo piano sulla rete ad alti ingrandimenti,ho capito quale era la strada da scegliere. Per fare quelle foto o si ha a disposizione una montatura di alto livello ed uno strumento di diametro notevole quindi poter disporre di un badget molto elevato, oppure sopperire al diametro con un piccolo sensore che faccia da lente di ingrandimento per restringere il FOV, a costi naturalmente notevolmente ridotti. La scelta è caduta quindi su questi componenti: a) Ottica Newton Skywatcher 254/1200 f 4,8 b) Camera ASI 178 MC cooled. Il primo devo dire un ottimo strumento logicamente in relazione alla qualità/prezzo, definito da tutti un pozzo di luce in quanto ha un rapporto focale di 4,8 quindi molto veloce. Il rovescio della medaglia ovviamente è la grande stazza ed il peso. Posso confermare che con pazienza è ancora gestibile dalla infaticabile montatura NEQ 6 Pro, anche se veramente proprio al limite, ed in assoluta mancanza di vento. Per la ASI 178 quando scrivo queste righe sono ancora alle prime esperienze, però ne posso confermare la buona sensibilità e facilità di uso. Un poco fastidioso l’amp-glow che anche in fase di calibrazione non riesco ad eliminare del tutto. Quindi ricapitolando la strumentazione c’è: montatura, tubo ottico molto luminoso, sensore cmos.
Una prima considerazione che ho fatto prima di provare seriamente questa tecnica è questa: uno degli scopi principali del Lucky Imaging è il congelamento del seeing, ma questo si può ottenere solo con scatti di frazioni di secondo. Un buon limite per ancora un ragionevole tempo per fissare lo scatto sarebbe di stare sul secondo, ma anche questo impone dei limiti pesanti in termini di immagazzinamento dei dati e per la loro elaborazione. Per la tecnica delle pose brevi si ragiona quindi su tempi di esposizioni in genere tra i 5-15 secondi . Ma è evidente che con questi tempi seppure brevissimi rispetto alla tecnica tradizionale, gli inevitabili errori sul tracking siderale delle nostre montature di fascia bassa, va ad incidere pesantemente con lo spalmare il segnale su piu’ pixel del dovuto, e quindi con una perdita di risoluzione e separazione dei dettagli. Usare un sistema di guida, è deleterio in quanto in astronomia amatoriale si utilizza un sistema a feedback "lento" (per quando veloci si possano impostare i tempi di reazione) e distruttivo. Il funzionamento del sistema di autoguida si avvale di una correzione che consiste in una eventuale frenata sull'asse di AR e/o una rotazione su quello di DEC se l'allineamento alla polare non è perfetto (e non lo è quasi mai). Questi movimenti avvengono quando ormai il "drifting" è già avvenuto da diversi millisecondi. Spesso si innesca un effetto "pendolo" che viene valutato accettabile nei log o guardando le stelle ma in realtà i dettagli a livello di pixel ormai sono persi o non più nitidi abbastanza da essere mantenuti nella fase di somma delle pose. Se non si utilizza l'autoguida e si allinea al meglio possibile alla polare, utilizzando anche il giusto campionamento (e quì si dovrebbe parlare di associazione fra camera e focale), non ci possono essere errori mal recuperati ma soltanto quelli periodici della guida facilmente eliminabili cestinando le pose incriminate. Come vantaggio secondario abbiamo anche quello dell'assenza di tutto il sistema di autoguida che incide non solo sui costi ma anche sul peso, sul bilanciamento e sulla immediatezza dell'operatività. Quindi andiamo a ragionare ed analizzare le fasi di ripresa e di selezione dei frames.
1) Stazionamento .
Questa fase deve essere molto accurata. In precedenza avevo sempre allineato al polo con EQMOD che mi ruotava esattamente la montatura in base alla data e all’orario centrando la polare nel cerchietto del cannocchiale polare. Mentre scrivo questo breve testo sto provando ad utilizzare SharpCap con la utilissima funzione del Polar Alignement che trovo nettamente piu’ precisa della precedente. Un accurato stazionamento limiterà di molto la deriva del nostro DSO in fase di acquisizione scatti.
2) Bilanciamento
Anche questa è una fase molto delicata, da fare scrupolosamente, soprattutto con un tubo di grossa mole come il mio newton.
3) Allineamento a tre stelle o PlateSolving
Fare un preciso allineamento a tre stelle è essenziale avendo un FOV molto limitato, per centrare poi successivamente il nostro DSO. Meglio ancora sarebbe sincronizzare la nostra montatura al cielo mediante un Plate solving che risulta anche piu’ preciso.
4) Inseguimento siderale
Una volta che abbiamo allineato a tre stelle, la nostra montatura è in grado di seguire la volta celeste nel suo movimento. Ma questo movimento non sarà preciso in quanto abbiamo l’ Errore Periodico (PE): in una montatura è causato da imperfezioni nel treno degli ingranaggi che causano una piccola "oscillazione" attorno all'asse azionato. Gli errori più significativi sono causati dal worm al trasferimento di vite senza fine e mentre questo può essere ridotto da miglioramenti meccanici non può essere rimosso del tutto, è una caratteristica intrinseca di un drive worm. La montatura EQ6 ha 180 denti con il suo ingranaggio a vite senza fine e con velocità siderale, il verme RA si girerà una volta ogni 479 secondi facendo avanzare la ruota a vite da un dente. All'osservatore, l'errore periodico appare come deriva ciclica in RA che si verifica nel periodo del verme. Ciò può comportare un movimento totale fino a 50-60 arcsecondi su alcuni supporti (30 arcseconds è tipico). Per un osservatore visivo questo non rappresenta alcun grande problema, per coloro che si dedicano alla fotografia a lunga esposizione, tuttavia, l'errore periodico causerà una sfocatura all'immagine mentre il campo stellare si muove attraverso il sensore / film durante un'esposizione. Sebbene i produttori non riescano a rimuovere completamente l'errore periodico, possono lavorare gli ingranaggi abbastanza accuratamente da garantire che la risposta all'errore periodico sia uniforme e ripetibile per ogni rivoluzione del verme. Se è possibile registrare l'errore periodico, è quindi possibile compensarlo spostando il supporto in una direzione opposta all'errore. Questo è ciò che è possibile fare con riferimento a Correzione degli errori periodici o PEC. Mentre scrivo queste righe sto provando la funzione PEC con EQMOD che fa tutto in automatico, e una volta salvata la curva ed armonizzata con PECprep si può richiamare ad ogni sessione. Un tracking fatto con il PEC attivato può ridurre le oscillazioni della montatura dai 30 arcsec oer ciclo, fino a 15 o ancora meno, il tutto a vantaggio dell’inquadratura che si sposterà molto di meno per la deriva con conseguente miglioramento per pose perse, allineamento e stacking.
5) Fuoco
Avere un fuoco preciso è quasi la parte piu’ importante di tutto il processo. Se si vogliono tirare fuori dettagli, il fuoco deve essere piu’ preciso possibile. Nel mio caso ho acquistato di recente una maschera di Bathinov e devo dire che la sua semplicità ed immediatezza di uso è ottima. Bisogna aver pazienza aspettare bene la fine delle vibrazioni del tubo quando si focheggia ed essere estremamente scrupolosi. La possibilità di avere un focheggiatore motorizzato sarebbe molto utile.
6) Ripresa
Una volta centrato l’oggetto e fatta l’inquadratura, si parte con le riprese quindi fatte senza autoguida. Non sto qui ad indicare i valori di esposizione, gain e offset da impostare, in quanto questi valori sono dipendenti da vari fattori, quale location di ripresa e SQM medio del luogo, luminosità del soggetto e difficoltà dello stesso, etc. Per quanto mi riguarda credo che una buona base di partenza da sperimentare e settare personalmente sia fare scatti da 8-10 secondi fino a 20” se la montatura ed il tracking lo permette. Il gain partendo dai 300 per le pose piu’ lunghe fino a 420 per quelle piu’ brevi. Ogni tot scatti sempre in riferimento alla bontà del tracking ricentrare l’inquadratura avvalendosi anche dei mirini di riferimento dei software di acquisizione, e cercare di far spostare il meno possibile la stessa anche se poi in fase di allineamento si recupera bene. Ovviamente la regola che piu’ segnale si acquisisce e meglio è, vale anche per questa tecnica. Anche qui va tutto riferito poi alla potenza del nostro PC per elaborare la grande mole di dati a disposizione. A tale scopo ho potenziato la RAM del mio vecchio pc portandola da 2 GB a 8 GB, cosa che per ora sembra funzionare , ma con pre-elaborazioni che durano anche 4- 5 ore minimo. Diciamo che per avere una discreta foto dovremmo sempre stare almeno sulle due –tre ore vere di integrazione, e considerando che dovremmo fare anche una buona scrematura dei migliori frames gli scatti sranno sempre sull’ordine dei 1.000- 1.500 minimo. Questo dato dà una idea di quanta memoria dobbiamo disporre per poter affrontare una elaborazione del genere.
7) Selezione dei migliori frames
Questo è l’ultimo punto da prendere in considerazione. Diciamo è un po’ la nota dolente di tutto il processo, in quanto è il momento in cui si deve scartare la parte dei frames difettati, con stelle allungate , con meno segnale, etc . In questa fase ci vengono in aiuto numerosi programmi, perché è abbastanza palese che dato il numero proibitivo è impensabile farlo a mano. Tra quelli che conosco posso indicare Autostakkert 2, Pixinsight con la funzione Subframes Selector, DeepSkyStacker impostando la soglia e la percentuale di scarto, ed infine quello che ho ultimamente scoperto: Siril. Questo ultimo programma è molto immediato e permette di fare una preelaborazione molto veloce impostando i settaggi di selezione dei migliori frames basati su parametri diversi, oltre a mostrare dei grafici di qualità degli stessi. Se abbiamo molto materiale a disposizione consiglio di fare una selezione abbastanza spinta : il risultato finale nello stacking sarà sicuramente migliore mostrando piu’ dettagli e particolari in modo piu’ incisivo. Dipende sempre dalle condizioni meteo e da come sia stato efficace il tracking, ma credo che una media di scarto che va da un 15 fino ad un 30% del totale, sia l’ approccio giusto.
Per finire, posso solo aggiungere che in fase di elaborazione, merita particolare cura ed attenzione , la fase ed il processo di deconvoluzione, che se fatto nella maniera corretta potrà mettere in risalto quei dettagli e particolari, mi riferisco in special modo alle galassie, che tanto abbiamo faticato per poter registrare nel nostro sensore.
Spero che queste considerazioni con materiale trovato in rete per la maggior parte, e con la mia personale esperienza , però iniziata solo da pochissimo tempo, possano essere di spunto per la Vs. attività di astrofotografia con questa tecnica. Gradito anche l’apporto di vostre segnalazioni e/o smentite su qualcosa che possa essere stato asserito erroneamente, ma del tutto in buonafede in quanto frutto di passione e amore per questa disciplina che è l’ Astronomia.