Příspěvek #38 od MMys » 23. 11. 2005, 16:45
Moje osobní zkušenost je taková, že uvedené algoritmy fungují vcelku dobře, ale je třeba vzít v úvahu pár věcí, než to člověk začne používat. Algoritmy obvykle hodnotí snímky podle dvou kritérií:
Tím prvním je celkové množství detailů. Na to se usuzuje z dat ve frekvenční oblasti, získaných 2D fourierovou transformací obrazu. Zjednodušeně řečeno, čím je zastoupení vyšších frekvencí vyšší, tím je ve snímku více detailů. Problémem je, jak nastavit filtr, který říká, jaké části spektra si má algoritmus všímat. Ty úplně nejvyšší frekvence totiž zase přísluší hlavně šumu, a to není zrovna to správné měřítko. Nastavení pro konkrétní hardware chce trochu cvik a zkušenosti.
Druhým kritériem je podobnost jednotlivých snímků. Ovykle je to řešeno tak, že uživatel "okometricky" vybere ten nejlepší (resp. spíš nějaký z nejvíce povedených) a algoritmus pak obvykle na základě korelace vybere snímky nejvíce podobné. Tady může nastat (a dost často nastává) jeden problém, že vybereš jako referenční snímek snímek, který je sice krásně ostrý, ale je zrovna "pokroucený" seeingem tak, že k němu není moc ekvivalentních.
Algoritmus tedy nakonec setřídí snímky podle kvality (ostrosti) a podobnosti s referenčním, a ty si jenom vybereš limit pro obě veličiny. Tohle používám k hrubému vytřídění snímků. Pro nejlepší výsledky ale je stejně nejlepší ještě tuto redukovanou množinu projet ručně a podezřelé kusy prostě vyházet. Ten SW tedy není všemocný, ale pomáhá. Další řešení je sledovat obraz, a nahrávat pouze ve chvílích kdy je obraz klidnější, není potom tolik snímků na probírání.