Article deals with a sensitivity analysis of fitting procedure: theoretical model of reflectance is fitted to an ''ideal'' data by applying Levenberg - Marquardt algorithm in order to determine optical properties, their accuracy and reliability factor used to quantify a convergence successfulness of the reflectance model at given set of starting parameters vector. and V článku je popsána základní myšlenka citlivostní analýzy fitovací procedury běžně používané při vyhodnocování optických parametrů tenkých vrstev. Hledání minimální hodnoty sumy čtverců odchylek teoretické závislosti a závislosti získané experimentálně je často negativně ovlivněno výběrem startovacího vektoru optických parametrů. Proto je v příspěvku zaveden a diskutován tzv. faktor spolehlivosti, který vypovídá o pravděpodobnosti nalezení věrohodného výsledku fitováním. Počáteční vektor startovacích parametrů je vybírán z určitého okolí ideálního (známého) řešení a sleduje se, zda bylo po fitovací proceduře dosaženo shody (True), či nikoliv (False) s tímto řešením. Faktor spolehlivosti je pak zaveden jako poměr počtu úspěšných (True) ku celkovému (True+False) počtu výpočtů. Ukazuje se, že existují takové kombinace optických parametrů zkoumaných vrstev, že lze ke shodě s ideálním řešením dojít téměř vždy, nezávisle na volbě startovacího vektoru parametrů (např. situace pro tloušťku SiO2 vrstvy na Si dSiO2 = 130 nm). Na druhé straně je možné identifikovat i tloušťky, pro které je vyhledání minima odchylek na tomto počátečním parametru silně závislé (např. dSiO2 = 485 nm). Pro srovnání je rovněž uveden faktor spolehlivosti pro vyhodnocování vrstvy TiO2 na Si. Výsledky, prezentované v tomto příspěvku, byly určovány pomocí vlastního programu reliabiliTy.exe, který se ukázal jako vhodný nástroj k provádění předběžné analýzy citlivosti fitovací metody na volbu startovacích parametrů vrstev.
Both historical and recent developments of quantitative research in linguistics brought out a great amount of data without a unifying method. The older data have been computed mainly by hand from limited samples of shorter texts, with limited possibilities of data combinations. Newer data based on large corpora offer a great number of quantitative characteristics even in the most different combinations, but they have been mainly extracted from heterogeneous text materials. Statistically, the older data can be considered as less exact. New data, with respect to enormous extent of corpora, can be considered as most exact. Therefore, problems arise not only because of the above mentioned methodological disparities of old and new approaches of computation, but also because of different details studied or because of limited possibilities of direct comparison. Deeper statistical and probabilistic questions arise too, and their discussion should not be ignored.