Das Gesetz der Akkumulation von Fehlern. Anhäufung von Fehlern

EINLEITUNG

Alle Messungen, egal wie sorgfältig sie durchgeführt werden, sind von Fehlern (Fehlern) begleitet, dh Abweichungen der gemessenen Werte von ihrem wahren Wert. Dies erklärt sich aus der Tatsache, dass sich während des Messvorgangs die Bedingungen ständig ändern: der Zustand der Umgebung, des Messgeräts und des Messobjekts sowie die Aufmerksamkeit des Ausführenden. Daher wird beim Messen einer Größe immer ihr ungefährer Wert erhalten, dessen Genauigkeit geschätzt werden muss. Ein weiteres Problem tritt ebenfalls auf: ein Instrument, Bedingungen und eine Technik auszuwählen, um Messungen mit einer gegebenen Genauigkeit durchzuführen. Zur Lösung dieser Probleme hilft die Fehlertheorie, die die Gesetze der Fehlerverteilung untersucht, Bewertungskriterien und Toleranzen für die Messgenauigkeit, Methoden zur Bestimmung des wahrscheinlichsten Werts der zu bestimmenden Größe und Regeln zur Vorhersage der erwarteten Genauigkeit festlegt.

12.1. MESSUNGEN UND IHRE KLASSIFIZIERUNG

Messen ist der Prozess des Vergleichens eines gemessenen Werts mit einem anderen bekannten Wert, der als Maßeinheit verwendet wird.
Alle Größen, mit denen wir es zu tun haben, werden in gemessene und berechnete unterteilt. gemessen Der Wert wird als Näherungswert bezeichnet, der durch Vergleich mit einer homogenen Maßeinheit ermittelt wird. Wenn sie also das Vermessungsband nacheinander in eine bestimmte Richtung legen und die Anzahl der Verlegungen zählen, finden sie den ungefähren Wert der Länge des Abschnitts.
Berechnet eine Größe ist ihr Wert, der aus anderen Messgrößen bestimmt wird, die funktional mit ihr zusammenhängen. Beispielsweise ist die Fläche einer rechteckigen Fläche das Produkt aus ihrer gemessenen Länge und Breite.
Um Misses (grobe Fehler) zu erkennen und die Genauigkeit der Ergebnisse zu verbessern, wird derselbe Wert mehrmals gemessen. Durch die Genauigkeit werden solche Messungen in gleich und ungleich unterteilt. Äquivalent - homogene Mehrfachmessergebnisse der gleichen Größe, durchgeführt mit dem gleichen Instrument (oder verschiedenen Instrumenten der gleichen Genauigkeitsklasse), auf die gleiche Weise und in der gleichen Anzahl von Schritten, unter identischen Bedingungen. ungleich - Messungen bei Nichteinhaltung der Bedingungen gleicher Genauigkeit.
Bei der mathematischen Verarbeitung von Messergebnissen ist die Anzahl der Messwerte von großer Bedeutung. Um beispielsweise den Wert jedes Winkels eines Dreiecks zu erhalten, reicht es aus, nur zwei davon zu messen - dies wird der Fall sein notwendig Anzahl der Werte. Im Allgemeinen ist es zur Lösung eines topographisch-geodätischen Problems erforderlich, eine bestimmte Mindestanzahl von Größen zu messen, die die Lösung des Problems gewährleisten. Sie heißen die Anzahl der benötigten Mengen oder Messungen. Aber um die Qualität der Messungen zu beurteilen, ihre Richtigkeit zu überprüfen und die Genauigkeit des Ergebnisses zu verbessern, wird auch der dritte Winkel des Dreiecks gemessen - Überschuss . Die Anzahl redundanter Werte (k ) ist die Differenz aus der Anzahl aller gemessenen Größen ( P ) und die Anzahl der benötigten Mengen ( t ):

k = n - t

In der topografischen und geodätischen Praxis sind redundante Messwerte unverzichtbar. Sie ermöglichen es, Fehler (Fehler) bei Messungen und Berechnungen zu erkennen und erhöhen die Genauigkeit der ermittelten Werte.

Durch körperliche Leistung Messungen können direkt, indirekt und entfernt sein.
Direkte Messungen sind die einfachsten und historisch gesehen die ersten Arten von Messungen, z. B. das Messen der Längen von Linien mit einem Vermessungsband oder Maßband.
Indirekt Messungen basieren auf der Verwendung bestimmter mathematischer Beziehungen zwischen gesuchten und direkt gemessenen Größen. Beispielsweise wird die Fläche eines Rechtecks ​​auf dem Boden bestimmt, indem die Längen seiner Seiten gemessen werden.
Fernbedienung Messungen basieren auf der Verwendung einer Reihe physikalischer Prozesse und Phänomene und sind in der Regel mit dem Einsatz moderner technischer Mittel verbunden: Lichtentfernungsmesser, elektronische Totalstationen, Phototheodolite usw.

Messinstrumente, die in der topografischen und geodätischen Produktion verwendet werden, können unterteilt werden in drei Hauptklassen :

  • hochpräzise (Präzision);
  • präzise;
  • technisch.

12.2. MESSFEHLER

Bei wiederholten Messungen des gleichen Wertes erhält man jedes Mal leicht unterschiedliche Ergebnisse, sowohl im absoluten Wert als auch in den Vorzeichen, egal wie erfahren der Ausführende ist und egal welche hochpräzisen Instrumente er verwendet.
Fehler werden unterschieden: grob, systematisch und zufällig.
Aussehen Rau Fehler ( vermisst ) ist mit schwerwiegenden Fehlern bei der Erstellung von Messarbeiten verbunden. Durch die Messkontrolle werden diese Fehler leicht identifiziert und eliminiert.
Systematische Fehler fließen nach einem fest definierten Gesetz in jedes Messergebnis ein. Sie sind auf den Einfluss der Konstruktion von Messgeräten, Fehler bei der Kalibrierung ihrer Waagen, Verschleiß usw. zurückzuführen ( instrumentelle Fehler) oder entstehen durch Unterschätzung der Messbedingungen und der Muster ihrer Änderungen, der Annäherung einiger Formeln usw. ( methodische Fehler). Systematische Fehler werden unterteilt in dauerhaft (invariant in Vorzeichen und Betrag) und Variablen (Änderung ihres Wertes von einer Dimension zur anderen gemäß einem bestimmten Gesetz).
Solche Fehler sind vorgegeben und können durch entsprechende Korrekturen auf das erforderliche Minimum reduziert werden.
zum Beispiel, der Einfluss der Erdkrümmung auf die Genauigkeit der Bestimmung vertikaler Entfernungen, der Einfluss von Lufttemperatur und Luftdruck bei der Längenbestimmung von Linien mit Lichtentfernungsmessern oder elektronischen Totalstationen können im Voraus berücksichtigt werden, der Einfluss von atmosphärische Refraktion kann vorab berücksichtigt werden etc.
Wenn grobe Fehler nicht zulässig sind und systematische Fehler ausgeschlossen sind, wird nur die Qualität der Messungen bestimmt zufällige Fehler. Diese Fehler sind unvermeidlich, aber ihr Verhalten unterliegt den Gesetzen der großen Zahl. Sie können analysiert, kontrolliert und auf das notwendige Minimum reduziert werden.
Um den Einfluss zufälliger Fehler auf die Messergebnisse zu reduzieren, greifen sie auf wiederholte Messungen zurück, um die Arbeitsbedingungen zu verbessern, wählen sie fortschrittlichere Instrumente und Messmethoden und führen ihre sorgfältige Produktion durch.
Vergleicht man die Reihe zufälliger Fehler gleich genauer Messungen, so stellt man fest, dass sie folgende Eigenschaften haben:
a) für einen gegebenen Typ und Messbedingungen können zufällige Fehler eine bestimmte absolute Grenze nicht überschreiten;
b) Absolut kleine Fehler treten häufiger auf als große;
c) positive Fehler treten ebenso oft auf wie negative, die ihnen im absoluten Wert gleich sind;
d) der arithmetische Mittelwert zufälliger Fehler gleichen Wertes bei unbegrenzter Erhöhung der Anzahl der Messungen gegen Null geht.
Die den angegebenen Eigenschaften entsprechende Fehlerverteilung wird als normal bezeichnet (Abb. 12.1).

Reis. 12.1. Kurve der Normalverteilung von Gaußschen Zufallsfehlern

Die Differenz zwischen dem Messergebnis einer bestimmten Größe ( l) und seine wahre Bedeutung ( X) namens absoluter (wahrer) Fehler .

Δ = l - X

Der wahre (absolut genaue) Wert der gemessenen Größe kann nicht erhalten werden, selbst wenn die Instrumente mit der höchsten Genauigkeit und die fortschrittlichste Messtechnik verwendet werden. Nur in einigen Fällen kann der theoretische Wert der Menge bekannt sein. Die Anhäufung von Fehlern führt zur Bildung von Abweichungen zwischen den Messergebnissen und ihren tatsächlichen Werten.
Die Differenz zwischen der Summe der praktisch gemessenen (oder berechneten) Werte und ihrem theoretischen Wert wird genannt unsichtbar. Zum Beispiel beträgt die theoretische Summe der Winkel in einem flachen Dreieck 180º, und die Summe der gemessenen Winkel ergibt 180º02"; dann beträgt der Fehler der Summe der gemessenen Winkel +0º02". Dieser Fehler ist die Winkelabweichung des Dreiecks.
Der absolute Fehler ist kein vollständiger Indikator für die Genauigkeit der durchgeführten Arbeit. Wenn zum Beispiel eine Zeile mit der tatsächlichen Länge 1000 m, gemessen mit einem Vermessungsband mit einem Fehler von 0,5 m, und ein Segment der Länge 200 m- mit einem Fehler von 0,2 m, dann wurde trotz der Tatsache, dass der absolute Fehler der ersten Messung größer ist als der zweite, die erste Messung dennoch mit einer doppelt so hohen Genauigkeit durchgeführt. Daher wird das Konzept eingeführt relativ Fehler:

Das Verhältnis des absoluten Fehlers des MesswertsΔ zum Messwertlnamens relativer Fehler.

Relative Fehler werden immer als Bruch mit einem Zähler gleich eins ausgedrückt (aliquoter Bruch). Im obigen Beispiel ist also der relative Fehler der ersten Messung

und der zweite

12.3 MATHEMATISCHE VERARBEITUNG DER ERGEBNISSE VON MESSUNGEN MIT GLEICHER GENAUIGKEIT EINZELWERT

Lassen Sie eine Menge mit wahrem Wert X gleich gemessen n Zeiten und die Ergebnisse sind: l 1 , l 2 , l 3 ,lich (ich = 1, 2, 3, … n), die oft als Messreihe bezeichnet wird. Es ist erforderlich, den zuverlässigsten Wert der gemessenen Größe zu finden, der aufgerufen wird höchstwahrscheinlich , und bewerten Sie die Genauigkeit des Ergebnisses.
In der Fehlertheorie ist der wahrscheinlichste Wert für eine Reihe gleich genauer Messergebnisse arithmetische Mittel , d.h.

(12.1)

In Abwesenheit systematischer Fehler das arithmetische Mittel bei unbegrenzter Erhöhung der Anzahl der Messungen tendiert zum wahren Wert des Messwertes.
Um den Einfluss größerer Fehler auf das Ergebnis der Schätzung der Genauigkeit einer Reihe von Messungen zu verstärken, verwendet man mittlerer quadratischer Fehler (UPC). Wenn der wahre Wert der gemessenen Größe bekannt ist und der systematische Fehler vernachlässigbar ist, dann ist der mittlere quadratische Fehler ( m ) eines einzelnen Ergebnisses gleich genauer Messungen wird durch die Gauß-Formel bestimmt:

m = (12.2) ,

wo Δ ich ist ein echter Fehler.

In der geodätischen Praxis ist der wahre Wert der gemessenen Größe in den meisten Fällen nicht im Voraus bekannt. Anschließend wird aus den wahrscheinlichsten Fehlern ( δ ) einzelne Messergebnisse ( l ich ); nach der Bessel-Formel:

m = (12.3)

Wo sind die wahrscheinlichsten Fehler ( δ ich ) sind definiert als die Abweichung der Messergebnisse vom arithmetischen Mittel

δ ich = l ich - µ

Oft wird neben dem wahrscheinlichsten Wert einer Größe auch ihr Effektivfehler geschrieben ( m), z. B. 70°05" ± 1". Das bedeutet, dass der genaue Wert des Winkels um 1 größer oder kleiner als der angegebene Wert sein kann. Diese Minute kann jedoch weder zum Winkel addiert noch von ihm subtrahiert werden. Sie charakterisiert nur die Genauigkeit der Ergebnisse unter bestimmten Messbedingungen .

Eine Analyse der Gaußschen Normalverteilungskurve zeigt, dass bei einer ausreichend großen Anzahl von Messungen mit gleichem Wert der zufällige Messfehler sein kann:

  • größer als rms m in 32 von 100 Fällen;
  • größer als das Doppelte des quadratischen Mittelwerts 2m in 5 von 100 Fällen;
  • mehr als das Dreifache des quadratischen Mittelwerts 3m in 3 von 1000 Fällen.

Es ist unwahrscheinlich, dass der zufällige Messfehler größer als das Dreifache des quadratischen Mittelwerts ist, also Der dreifache mittlere quadratische Fehler wird als einschränkend angesehen:

Δ vorh. = 3m

Der Grenzfehler ist ein solcher zufälliger Fehlerwert, dessen Auftreten unter den gegebenen Messbedingungen unwahrscheinlich ist.

Der mittlere quadratische Fehler wird auch als Grenzfehler gleich genommen

Δprev = 2,5 m ,

Mit einer Irrtumswahrscheinlichkeit von ca. 1%.

RMS-Fehler der Summe der Messwerte

Das Quadrat des mittleren quadratischen Fehlers der algebraischen Summe des Arguments ist gleich der Summe der Quadrate der mittleren quadratischen Fehler der Terme

m S 2 = m 1 2+m 2 2+m 3 2 + ..... + m n 2

Im konkreten Fall wann m 1 = m 2 = m 3 = m n= m Um den mittleren quadratischen Fehler des arithmetischen Mittels zu bestimmen, verwenden Sie die Formel

m S =

Der mittlere quadratische Fehler der algebraischen Summe gleicher Messungen ist um ein Vielfaches größer als der mittlere quadratische Fehler eines Terms.

Beispiel.
Wenn 9 Winkel mit einem 30-Sekunden-Theodoliten gemessen werden, beträgt der mittlere quadratische Fehler der Winkelmessungen

m Kohle = 30 " = ±1,5"

RMS-Fehler des arithmetischen Mittels
(Genauigkeit der Bestimmung des arithmetischen Mittels)

RMS-Fehler des arithmetischen Mittels (mµ )mal kleiner als der quadratische Mittelwert einer Messung.
Diese Eigenschaft des mittleren quadratischen Fehlers des arithmetischen Mittels ermöglicht es Ihnen, die Genauigkeit von Messungen zu verbessern Erhöhung der Anzahl der Messungen .

zum Beispiel, ist es erforderlich, den Wert des Winkels mit einer Genauigkeit von ± 15 Sekunden in Gegenwart eines 30-Sekunden-Theodoliten zu bestimmen.

Wenn Sie den Winkel 4 Mal messen ( n) und das arithmetische Mittel bestimmen, dann den mittleren quadratischen Fehler des arithmetischen Mittels ( mµ ) beträgt ± 15 Sekunden.

Der mittlere quadratische Fehler des arithmetischen Mittels ( m µ ) zeigt, inwieweit der Einfluss zufälliger Fehler bei wiederholten Messungen reduziert wird.

Beispiel
Es wurde eine 5-fache Messung der Länge einer Linie durchgeführt.
Berechnen Sie anhand der Messergebnisse: den wahrscheinlichsten Wert seiner Länge L(arithmetische Mittel); wahrscheinliche Fehler (Abweichungen vom arithmetischen Mittel); mittlerer quadratischer Fehler einer Messung m; Genauigkeit der Bestimmung des arithmetischen Mittels , und dem wahrscheinlichsten Wert der Linienlänge unter Berücksichtigung des Effektivfehlers des arithmetischen Mittels ( L).

Distanzmessungen verarbeiten (Beispiel)

Tabelle 12.1.

Messnummer

Messergebnis,
m

Höchstwahrscheinlich Fehler dich, cm

Das Quadrat des wahrscheinlichsten Fehlers, cm 2

Charakteristisch
Richtigkeit

m=±=±19cm
mµ = 19cm/= ±8cm

Σ dich = 0

dich]2 = 1446

L= (980,65 ± 0,08) m

12.4. GEWICHTE DER ERGEBNISSE UNGLEICHER MESSUNGEN

Bei ungleichen Messungen, wenn die Ergebnisse jeder Messung nicht als gleich zuverlässig angesehen werden können, kommt man mit der Definition eines einfachen arithmetischen Mittels nicht mehr aus. In solchen Fällen wird der Wert (oder die Zuverlässigkeit) jedes Messergebnisses berücksichtigt.
Die Würde der Messergebnisse wird durch eine bestimmte Zahl ausgedrückt, die als Gewicht dieser Messung bezeichnet wird. . Offensichtlich hat der arithmetische Durchschnitt mehr Gewicht als eine einzelne Messung, und Messungen, die mit einem fortschrittlicheren und genaueren Instrument durchgeführt werden, haben ein größeres Maß an Vertrauen als die gleichen Messungen, die mit einem weniger genauen Instrument durchgeführt werden.
Da die Messbedingungen einen unterschiedlichen Wert des Effektivfehlers bestimmen, ist es üblich, letzteren als anzunehmen Grundlagen zum Schätzen von Gewichtswerten, Messungen. In diesem Fall werden die Gewichte der Messergebnisse genommen umgekehrt proportional zu den Quadraten ihrer entsprechenden mittleren quadratischen Fehler .
Also, wenn mit bezeichnet R und R Messgewichte mit Effektivfehlern m und µ , dann können wir die Proportionalitätsrelation schreiben:

Zum Beispiel, wenn µ der mittlere quadratische Fehler des arithmetischen Mittels und m- jeweils eine Dimension, dann wie folgt aus

kann geschrieben werden:

d.h. das Gewicht des arithmetischen Mittels in n mal das Gewicht einer einzelnen Messung.

In ähnlicher Weise kann festgestellt werden, dass das Gewicht einer Winkelmessung, die mit einem 15-Sekunden-Theodoliten durchgeführt wird, viermal so schwer ist wie das Gewicht einer Winkelmessung, die mit einem 30-Sekunden-Instrument durchgeführt wird.

Bei praktischen Berechnungen wird normalerweise das Gewicht einer beliebigen Größe als Einheit genommen, und unter dieser Bedingung werden die Gewichte der verbleibenden Messungen berechnet. Nehmen wir also im letzten Beispiel das Gewicht des Ergebnisses einer Winkelmessung mit einem 30-Sekunden-Theodoliten als R= 1, dann wird der Gewichtswert des Messergebnisses mit einem 15-Sekunden-Theodoliten sein R = 4.

12.5. ANFORDERUNGEN AN DIE FORMATIERUNG DER ERGEBNISSE VON FELDMESSUNGEN UND DEREN VERARBEITUNG

Alle Materialien geodätischer Messungen bestehen aus Felddokumentationen sowie Dokumentationen von rechnerischen und grafischen Arbeiten. Aus langjähriger Erfahrung in der Erstellung geodätischer Messungen und deren Verarbeitung haben wir die Regeln für die Pflege dieser Dokumentation entwickelt.

Registrierung von Felddokumenten

Felddokumente umfassen Materialien zur Überprüfung geodätischer Instrumente, Messprotokolle und Sonderformulare, Umrisse, Streikprotokolle. Alle Felddokumentationen gelten nur im Original als gültig. Es ist in einer einzigen Kopie zusammengestellt und kann bei Verlust nur durch wiederholte Messungen wiederhergestellt werden, was praktisch nicht immer möglich ist.

Die Regeln für das Führen von Feldprotokollen lauten wie folgt.

1. Feldtagebücher sollten sorgfältig ausgefüllt werden, alle Zahlen und Buchstaben sollten klar und lesbar geschrieben sein.
2. Die Berichtigung von Nummern und deren Löschung sowie das Schreiben von Nummern für Nummern sind nicht gestattet.
3. Fehlerhafte Aufzeichnungen von Messwerten werden mit einer Linie durchgestrichen und rechts wird „fehlerhaft“ oder „Druckfehler“ angezeigt, und die korrekten Ergebnisse werden oben eingetragen.
4. Alle Eintragungen in die Tagebücher erfolgen mit einem einfachen Bleistift mittlerer Härte, Tusche oder einem Kugelschreiber; die Verwendung von chemischen oder Buntstiften wird hierfür nicht empfohlen.
5. Bei der Durchführung jeder Art von geodätischer Vermessung werden Aufzeichnungen über die Messergebnisse in den entsprechenden Zeitschriften der festgelegten Form gemacht. Vor Beginn der Arbeiten werden die Seiten der Zeitschriften nummeriert und ihre Nummer vom Arbeitsleiter beglaubigt.
6. Bei der Feldarbeit werden Seiten mit abgelehnten Messergebnissen diagonal mit einer Linie durchgestrichen, geben Sie den Grund für die Ablehnung und die Nummer der Seite an, die die Ergebnisse wiederholter Messungen enthält.
7. Geben Sie in jeder Zeitschrift auf der Titelseite Informationen über das geodätische Instrument ein (Marke, Nummer, Standardmessfehler), notieren Sie Datum und Uhrzeit der Beobachtungen, Wetterbedingungen (Wetter, Sicht usw.) und Namen von Darsteller, stellen Sie die notwendigen Diagramme, Formeln und Notizen zur Verfügung.
8. Das Tagebuch ist so auszufüllen, dass ein anderer, nicht an der Feldarbeit beteiligter Ausführender die Weiterverarbeitung der Messergebnisse fehlerfrei vornehmen kann. Beim Ausfüllen von Feldjournalen sind folgende Eingabeformulare zu beachten:
a) Die Zahlen in den Spalten werden so geschrieben, dass alle Ziffern der entsprechenden Ziffern ohne Versatz untereinander stehen.
b) alle Ergebnisse von Messungen, die mit der gleichen Genauigkeit durchgeführt wurden, mit der gleichen Anzahl von Dezimalstellen aufgezeichnet werden.

Beispiel
356,24 und 205,60 m - richtig,
356,24 und 205,6 m - falsch;
c) Die Werte von Minuten und Sekunden bei Winkelmessungen und Berechnungen werden immer zweistellig geschrieben.

Beispiel
127°07"05 " , nicht 127º7"5 " ;

d) Schreiben Sie in den Zahlenwerten der Messergebnisse eine solche Anzahl von Ziffern auf, die es Ihnen ermöglicht, das Lesegerät des entsprechenden Messgeräts zu erhalten. Wenn beispielsweise die Länge der Linie mit einem Maßband mit Millimetereinteilung gemessen und die Ablesung mit einer Genauigkeit von 1 mm durchgeführt wird, sollte die Ablesung als 27.400 m aufgezeichnet werden, nicht als 27,4 m. Oder wenn nur das Goniometer ermöglicht das Ablesen ganzer Minuten, dann wird die Ablesung als 47º00 " geschrieben, nicht als 47º oder 47º00"00".

12.5.1. Das Konzept der Regeln geodätischer Berechnungen

Die Verarbeitung der Messergebnisse wird nach Prüfung aller Feldmaterialien gestartet. Gleichzeitig sollte man sich an die in der Praxis entwickelten Regeln und Techniken halten, deren Beachtung die Arbeit des Taschenrechners erleichtert und ihm ermöglicht, Computertechnologie und Hilfsmittel rationell einzusetzen.
1. Vor der Verarbeitung der Ergebnisse geodätischer Messungen sollte ein detailliertes Berechnungsschema entwickelt werden, das die Abfolge von Aktionen angibt, mit denen das gewünschte Ergebnis auf einfachste und schnellste Weise erzielt werden kann.
2. Wählen Sie unter Berücksichtigung des Rechenaufwands die optimalen Mittel und Berechnungsmethoden, die die geringsten Kosten verursachen und gleichzeitig die erforderliche Genauigkeit gewährleisten.
3. Die Genauigkeit der Berechnungsergebnisse kann nicht höher sein als die Messgenauigkeit. Daher sollte eine ausreichende, aber nicht übermäßige Genauigkeit von Rechenoperationen im Voraus spezifiziert werden.
4. Bei der Berechnung sollte man keine Entwürfe verwenden, da das Umschreiben von digitalem Material viel Zeit in Anspruch nimmt und oft mit Fehlern einhergeht.
5. Um die Ergebnisse von Berechnungen aufzuzeichnen, wird empfohlen, spezielle Schemata, Formulare und Anweisungen zu verwenden, die das Verfahren für Berechnungen bestimmen und eine Zwischen- und allgemeine Kontrolle bieten.
6. Ohne Kontrolle kann die Berechnung nicht als vollständig betrachtet werden. Die Kontrolle kann mit einer anderen Bewegung (Methode) zur Lösung des Problems oder durch wiederholte Berechnungen durch einen anderen Darsteller (in "zwei Händen") durchgeführt werden.
7. Berechnungen enden immer mit der Feststellung von Fehlern und deren obligatorischem Vergleich mit den in den entsprechenden Anweisungen vorgesehenen Toleranzen.
8. An die Genauigkeit und Eindeutigkeit der Erfassung von Zahlen in Rechenformularen werden besondere Anforderungen an die Rechenarbeit gestellt, da Unachtsamkeiten bei der Eingabe zu Fehlern führen.
Wie in Feldzeitschriften sollten beim Schreiben von Zahlenkolonnen in Rechenschemata Ziffern gleicher Ziffern untereinander platziert werden. In diesem Fall wird der Bruchteil der Zahl durch ein Komma getrennt; Es ist wünschenswert, mehrstellige Zahlen in Intervallen zu schreiben, zum Beispiel: 2 560 129,13. Berechnungsaufzeichnungen sollten nur in Tinte und in Antiqua gehalten werden; fehlerhafte Ergebnisse werden sorgfältig durchgestrichen und die korrigierten Werte darüber geschrieben.
Bei der Verarbeitung von Messmaterialien sollte man wissen, mit welcher Genauigkeit die Ergebnisse der Berechnungen gewonnen werden müssen, um nicht mit einer übermäßigen Zeichenzahl zu arbeiten; Wenn das Endergebnis der Berechnung mit mehr Stellen als erforderlich erhalten wird, werden die Zahlen gerundet.

12.5.2. Zahlen runden

Aufrunden auf n Zeichen - bedeutet, die ersten darin zu behalten n wichtige Ziffer.
Die signifikanten Ziffern einer Zahl sind alle ihre Ziffern von der ersten Ziffer ungleich Null auf der linken Seite bis zur letzten Ziffer auf der rechten Seite. In diesem Fall gelten rechte Nullen nicht als signifikante Zahlen, wenn sie unbekannte Zahlen ersetzen oder beim Runden einer bestimmten Zahl anstelle anderer Zahlen gesetzt werden.
Beispielsweise hat die Zahl 0,027 zwei signifikante Stellen und die Zahl 139,030 sechs signifikante Stellen.

Beim Runden von Zahlen sind die folgenden Regeln zu beachten.
1. Wenn die erste der verworfenen Ziffern (von links nach rechts gezählt) kleiner als 5 ist, wird die letzte verbleibende Ziffer unverändert beibehalten.
Zum Beispiel wäre die Zahl 145,873 nach dem Runden auf fünf signifikante Stellen 145,87.
2. Wenn die erste der verworfenen Ziffern größer als 5 ist, wird die letzte verbleibende Ziffer um eins erhöht.
Zum Beispiel ist die Zahl 73,5672 nach dem Runden auf vier signifikante Stellen 73,57.
3. Wenn die letzte Ziffer der gerundeten Zahl die Zahl 5 ist und verworfen werden muss, wird die vorangehende Ziffer der Zahl nur dann um eins erhöht, wenn sie ungerade ist (Geradzahlregel).
Beispielsweise ergeben die Zahlen 45,175 und 81,325 nach dem Runden auf 0,01 45,18 bzw. 81,32.

12.5.3. Grafische Werke

Der Wert grafischer Materialien (Pläne, Karten und Profile), die das Endergebnis geodätischer Vermessungen sind, wird maßgeblich nicht nur von der Genauigkeit der Feldmessungen und der Richtigkeit ihrer rechnerischen Verarbeitung bestimmt, sondern auch von der Qualität der grafischen Ausführung. Grafische Arbeiten sollten mit sorgfältig geprüften Zeichenwerkzeugen ausgeführt werden: Lineale, Dreiecke, geodätische Winkelmesser, Messzirkel, gespitzte Bleistifte (T und TM) usw. Die Organisation des Arbeitsplatzes hat großen Einfluss auf die Qualität und Produktivität der Zeichenarbeit. Zeichenarbeiten sollten auf Blättern aus hochwertigem Zeichenpapier ausgeführt werden, die auf einem flachen Tisch oder auf einem speziellen Zeichenbrett befestigt sind. Das mit Bleistift gezeichnete Original des grafischen Dokuments wird nach sorgfältiger Prüfung und Korrektur mit Tinte gemäß den etablierten konventionellen Zeichen erstellt.

Fragen und Aufgaben zur Selbstkontrolle

  1. Was bedeutet der Ausdruck „etwas messen“?
  2. Wie werden Messwerte klassifiziert?
  3. Wie werden Messgeräte klassifiziert?
  4. Wie werden Messergebnisse nach Genauigkeit klassifiziert?
  5. Welche Maße werden als gleich bezeichnet?
  6. Was bedeuten die Begriffe: notwendig und Überschuss Anzahl Messungen?
  7. Wie werden Messfehler klassifiziert?
  8. Was verursacht systematische Fehler?
  9. Welche Eigenschaften haben zufällige Fehler?
  10. Was wird als absoluter (wahrer) Fehler bezeichnet?
  11. Was wird als relativer Fehler bezeichnet?
  12. Wie heißt das arithmetische Mittel in der Fehlertheorie?
  13. Was wird in der Fehlertheorie als mittlerer quadratischer Fehler bezeichnet?
  14. Was ist der marginale mittlere quadratische Fehler?
  15. Wie hängt der quadratische Mittelfehler der algebraischen Summe gleich genauer Messungen und der mittlere quadratische Fehler eines Terms zusammen?
  16. Welche Beziehung besteht zwischen dem mittleren quadratischen Fehler des arithmetischen Mittels und dem mittleren quadratischen Fehler einer Messung?
  17. Was zeigt der mittlere quadratische Fehler des arithmetischen Mittels?
  18. Welcher Parameter wird der Schätzung der Gewichtswerte zugrunde gelegt?
  19. Welche Beziehung besteht zwischen der Gewichtung des arithmetischen Mittels und der Gewichtung einer Einzelmessung?
  20. Welche Regeln gelten in der Geodäsie für das Führen von Feldprotokollen?
  21. Nennen Sie die Grundregeln geodätischer Berechnungen.
  22. Runden Sie die Zahlen 31,185 und 46,575 auf 0,01.
  23. Listen Sie die Grundregeln für die Ausführung grafischer Arbeiten auf.

Was ist „Fehlerakkumulation“? Wie ist die korrekte Schreibweise dieses Wortes. Konzept und Deutung.

KUMULATION VON FEHLER bei der numerischen Lösung algebraischer Gleichungen - die Gesamtwirkung von Rundungen, die bei einzelnen Schritten des Rechenprozesses vorgenommen wurden, auf die Genauigkeit der resultierenden Lösung einer linearen algebraischen Gleichung. Systeme. Die gebräuchlichste Methode zur a priori Abschätzung des Gesamteinflusses von Rundungsfehlern in numerischen Methoden der linearen Algebra ist das sogenannte Schema. umgekehrte Analyse. Wie auf die Lösung eines Systems der linearen Algebra angewendet Gleichungen ist das umgekehrte Analyseschema wie folgt. Die durch das direkte Verfahren berechnete Lösung xy erfüllt (1) nicht, stellt sich aber als exakte Lösung des gestörten Systems dar. Die Qualität des direkten Verfahrens wird durch die beste a priori Schätzung geschätzt, die für die Matrix und gegeben werden kann Vektornormen. Solche "besten" und genannt. bzw. die Matrix und der Vektor der äquivalenten Störung für das Verfahren M. Wenn Abschätzungen für und verfügbar sind, dann kann theoretisch der Fehler der Näherungslösung durch die Ungleichung abgeschätzt werden. Hier ist die Bedingungszahl der Matrix A und die Matrixnorm in (3) wird als der Vektornorm untergeordnet angenommen, und die Hauptbedeutung von (2) ist die Fähigkeit, die Qualität verschiedener Methoden zu vergleichen. Unten ist eine Ansicht einiger typischer Schätzungen für die Matrix. Für Verfahren mit orthogonalen Transformationen und Fließkommaarithmetik (in System (1) werden A und b als gültig betrachtet). Bei dieser Schätzung wird die relative Genauigkeit der Arithmetik angegeben. Operationen in einem Computer, ist die euklidische Matrixnorm, f (n) ist eine Funktion der Form, wobei n die Ordnung des Systems ist. Die genauen Werte der Konstante C des Exponenten k werden durch solche Details des Berechnungsprozesses wie die Rundungsmethode, die Verwendung der Akkumulation von Skalarprodukten usw. bestimmt. Meistens ist k = 1 oder 3/2. Im Fall von Gauß-Methoden enthält die rechte Seite der Schätzung (4) auch einen Faktor, der die Möglichkeit des Wachstums der Elemente der Matrix Ana in Zwischenschritten der Methode im Vergleich zum Anfangsniveau widerspiegelt (ein solches Wachstum fehlt bei orthogonalen Verfahren). Um den Wert zu reduzieren, werden verschiedene Methoden zur Auswahl des führenden Elements verwendet, um die Zunahme der Elemente der Matrix zu verhindern. Für die Quadratwurzel des Verfahrens, das üblicherweise bei einer positiv definiten Matrix A verwendet wird, erhält man die stärkste Abschätzung. In diesen Fällen werden bei der Untersuchung von N. p. auch andere Überlegungen angestellt (siehe -). Lit.: Givens W., „TJ. S. Atomic Energy Commiss. Wiederholungen. Ser. OR NL", 1954, Nr. 1574; Wilkinson J. H., Rounding errors in algebraic processes, L., 1963; Wilkinson J., stable in direct methods of linear algebra, M., 1969; sein eigener, Computational foundations of linear algebra, M ., 1977; Peters G., Wilkinson J. H., „Communs Assoc. Berechnung. Math.", 1975, V. 18, Nr. 1, S. 20-24; Brouden C. G., "J. Inst. Math, and Appl.", 1974, v. 14, no. 2, p. 131-40; Reid J. K., in the book: Large Sparse Sets of Linear Equations, L.-N. Y., 1971, p. 231-254; Ikramov Kh. D., „J. Berechnung. Mathematik. und Matte. Physik", 1978, Bd. 18, Nr. 3, S. 531-45. Kh. D. Ikramov. N. p. Rundungs- oder Methodenfehler treten beim Lösen von Problemen auf, bei denen die Lösung das Ergebnis einer großen Anzahl von aufeinanderfolgenden ist durchgeführte arithmetische Operationen.Bedeutsamerweise hängen einige dieser Probleme mit der Lösung algebraischer Probleme zusammen, linear oder nichtlinear (siehe oben).Unter den algebraischen Problemen wiederum treten die häufigsten Probleme bei der Approximationvon Differentialgleichungen auf.Diese Probleme sind gekennzeichnet durch bestimmte spezifische Merkmale. Methode zur Lösung eines Problems folgt denselben oder einfacheren Gesetzen wie die NI des Rechenfehlers. Rechenfehler werden bei jedem Schritt auf die ungünstigste Weise eingeführt und erhalten eine Majorant-Error-Schätzung. Im zweiten Fall werden diese Fehler berücksichtigt mit einem bestimmten Verteilungsgesetz zufällig sein Aufteilung. Die Art des N. p. hängt von dem zu lösenden Problem, der Lösungsmethode und einer Reihe anderer Faktoren ab, die auf den ersten Blick unbedeutend erscheinen mögen; dazu gehört die Schreibweise von Zahlen in einem Computer (Festkomma oder Gleitkomma), die Ausführungsreihenfolge von Arithmetik. Operationen usw. Beispielsweise ist beim Problem der Berechnung der Summe von N Zahlen die Reihenfolge, in der die Operationen durchgeführt werden, wesentlich. Lassen Sie die Berechnungen auf einer Fließkommamaschine mit t Bits durchführen und alle Zahlen liegen darin. Bei direkter Berechnung unter Verwendung der rekursiven Formel liegt die Majorant-Error-Schätzung in der Größenordnung von 2-tN. Sie können auch anders vorgehen (siehe). Bei der Berechnung paarweiser Summen (wenn N=2l+1 ungerade ist) wird davon ausgegangen. Dann werden ihre paarweisen Summen berechnet usw. Denn nach den Schritten des Bildens paarweiser Summen durch Formeln wird eine Hauptabschätzung des Ordnungsfehlers erhalten. in diesen Fällen führt die Anwendung der beschriebenen Technik zu einer Erhöhung der Belastung des Computerspeichers. Es ist jedoch möglich, eine Abfolge von Berechnungen so zu organisieren, dass die RAM-Last -log2N Zellen nicht überschreitet. Bei der numerischen Lösung von Differentialgleichungen sind folgende Fälle möglich. Wenn der Gitterschritt h gegen Null tendiert, wächst der Fehler wie wo. Solche Methoden zur Problemlösung werden als instabil eingestuft. Ihre Verwendung ist episodisch. Charakter. Stabile Methoden zeichnen sich durch eine Erhöhung des Fehlers aus, da der Fehler solcher Methoden üblicherweise wie folgt geschätzt wird. Bezüglich der entweder durch Rundung oder durch die Fehler des Verfahrens eingeführten Störung wird eine Gleichung aufgestellt und dann die Lösung dieser Gleichung untersucht (siehe , ). In komplexeren Fällen wird die Methode der äquivalenten Störungen (siehe , ) verwendet, die im Zusammenhang mit dem Problem entwickelt wurde, die Akkumulation von Rechenfehlern beim Lösen von Differentialgleichungen zu untersuchen (siehe , , ). Berechnungen nach einem Berechnungsschema mit Rundungen gelten als Berechnungen ohne Rundungen, jedoch für eine Gleichung mit gestörten Koeffizienten. Durch Vergleichen der Lösung der ursprünglichen Gittergleichung mit der Lösung der Gleichung mit gestörten Koeffizienten wird eine Fehlerschätzung erhalten. Großes Augenmerk wird auf die Wahl eines Verfahrens mit möglichst kleineren Werten von q und A(h) gelegt. Bei festem Lösungsweg lassen sich die Berechnungsformeln meist in die Form wo umwandeln (siehe , ). Dies ist besonders wichtig bei gewöhnlichen Differentialgleichungen, bei denen die Anzahl der Schritte teilweise sehr groß ausfällt. Der Wert von (h) kann mit zunehmendem Integrationsintervall stark anwachsen. Daher versuchen sie, wann immer möglich, Methoden mit einem kleineren Wert von A(h) anzuwenden. Im Fall des Cauchy-Problems kann der Rundungsfehler bei jedem spezifischen Schritt in Bezug auf nachfolgende Schritte als Fehler in der Anfangsbedingung betrachtet werden. Daher hängt das Infimum (h) von der Charakteristik der Divergenz naher Lösungen der durch die Variationsgleichung definierten Differentialgleichung ab. Bei einer numerischen Lösung einer gewöhnlichen Differentialgleichung hat die Variationsgleichung die Form und daher kann man bei der Lösung des Problems im Intervall (x 0, X) nicht mit der Konstante A (h) in der Majorante rechnen Abschätzung des Rechenfehlers, die deutlich besser ist als Verfahren vom Runge-Kutta-Typ oder Verfahren vom Adams-Typ (siehe , ), bei denen der N. p. hauptsächlich durch die Lösung der Gleichung in Variationen bestimmt wird. Bei einer Reihe von Methoden akkumuliert sich der führende Term des Methodenfehlers nach einem ähnlichen Gesetz, während der Rechenfehler viel schneller akkumuliert (siehe Abb. ). Praxisbereich Die Anwendbarkeit solcher Methoden fällt deutlich enger aus. Die Akkumulation des Rechenfehlers hängt wesentlich von der verwendeten Methode zur Lösung des Gitterproblems ab. Beispielsweise hat beim Lösen von Gitterrandwertproblemen, die gewöhnlichen Differentialgleichungen entsprechen, unter Verwendung der Shooting- und Sweep-Methode N. p. den Charakter A(h)h-q, wobei q gleich ist. Die Werte von A(h) für diese Methoden können sich so stark unterscheiden, dass in einer bestimmten Situation eine der Methoden unanwendbar wird. Bei der Lösung des Gitterrandwertproblems für die Laplace-Gleichung nach der Schießmethode wird der N. p. Bei einem probabilistischen Ansatz zur Untersuchung von N. p. wird in einigen Fällen ein gewisses Gesetz der Fehlerverteilung a priori angenommen (siehe ), in anderen Fällen wird ein Maß für den Raum der betrachteten Probleme eingeführt und basierend auf Durch dieses Maß erhält man ein Verteilungsgesetz von Rundungsfehlern (siehe , ). Bei mäßiger Genauigkeit bei der Lösung des Problems liefern Majorant- und Wahrscheinlichkeitsansätze zur Schätzung der Akkumulation von Rechenfehlern normalerweise qualitativ dieselben Ergebnisse: Entweder liegt die NI in beiden Fällen innerhalb akzeptabler Grenzen, oder in beiden Fällen überschreitet die NI diese Grenzen. Lit.: Voevodin V. V., Rechnerische Grundlagen der linearen Algebra, M., 1977; Shura-Bura M. R., "Applied Mathematics and Mechanics", 1952, Bd. 16, Nr. 5, S. 575-88; Bakhvalov N. S., Numerical methods, 2. Aufl., M., 1975; Wilkinson J. X., Algebraisches Eigenwertproblem, übers. aus dem Englischen, M.. 1970; Bakhvalov N. S., in dem Buch: Computermethoden und Programmierung, in. 1, M., 1962, S. 69-79; Godunov S. K., Ryaben'kii V. S., Differenzschemata, 2. Aufl., M., 1977; Bakhvalov N. S., "Berichte der Akademie der Wissenschaften der UdSSR", 1955, Bd. 104, Nr. 5, p. 683-86; sein eigenes, "J. Calculate, Mathematics and Mathematics of Physics", 1964; Bd. 4, Nr. 3, p. 399-404; Lapshin E. A., ibid., 1971, Bd. 11, Nr. 6, S. 1425-36. N. S. Bachwalow.

bei der numerischen Lösung algebraischer Gleichungen - die Gesamtwirkung von Rundungen, die bei einzelnen Schritten des Rechenprozesses vorgenommen wurden, auf die Genauigkeit der resultierenden Lösung einer linearen algebraischen Gleichung. Systeme. Die gebräuchlichste Methode zur a priori Abschätzung des Gesamteinflusses von Rundungsfehlern in numerischen Methoden der linearen Algebra ist das sogenannte Schema. umgekehrte Analyse. Wie auf die Lösung eines Systems der linearen Algebra angewendet Gleichungen

Das umgekehrte Analyseschema ist wie folgt. Die nach der direkten Methode berechnete xui-Lösung erfüllt (1) nicht, kann aber als exakte Lösung des gestörten Systems dargestellt werden

Die Qualität der direkten Methode wird durch die beste a priori Schätzung geschätzt, die für die Normen der Matrix und des Vektors gegeben werden kann. Solche "besten" und genannt. bzw. die Matrix und der Vektor der äquivalenten Störung für das Verfahren M.

Liegen Abschätzungen für und vor, so lässt sich theoretisch der Fehler der Näherungslösung durch die Ungleichung abschätzen

Hier ist die Bedingungszahl der Matrix A, und es wird angenommen, dass die Matrixnorm in (3) der Vektornorm untergeordnet ist

In Wirklichkeit ist die Schätzung für selten bekannt, und die Hauptbedeutung von (2) ist die Möglichkeit, die Qualität verschiedener Methoden zu vergleichen. Unten ist die Form einiger typischer Schätzungen für die Matrix. Für Methoden mit orthogonalen Transformationen und Gleitkommaarithmetik (in System (1) gelten A und b als gültig)

In dieser Schätzung die relative Genauigkeit der Arithmetik. Computeroperationen, die euklidische Matrixnorm ist, f(n) eine Funktion der Form ist, wobei n die Ordnung des Systems ist. Die genauen Werte der Konstante C des Exponenten k werden durch solche Details des Berechnungsprozesses wie die Rundungsmethode, die Verwendung der Akkumulation von Skalarprodukten usw. bestimmt. Meistens ist k = 1 oder 3/2.

Im Fall von Gauß-Methoden enthält die rechte Seite der Schätzung (4) auch den Faktor , der die Möglichkeit des Wachstums der Elemente der Matrix Ana in Zwischenschritten der Methode im Vergleich zum Anfangsniveau widerspiegelt (ein solches Wachstum ist fehlen bei orthogonalen Methoden). Um den Wert von zu reduzieren, werden verschiedene Methoden zur Auswahl des führenden Elements verwendet, die die Zunahme der Elemente der Matrix verhindern.

Für Quadratwurzelmethode, die normalerweise im Fall einer positiv-definiten Matrix A verwendet wird, wird die stärkste Schätzung erhalten

Es gibt direkte Methoden (Jordan, Bordering, Conjugate Gradients), für die die direkte Anwendung des inversen Analyseschemas nicht zu effizienten Schätzungen führt. In diesen Fällen werden bei der Untersuchung von N. p. auch andere Überlegungen angestellt (siehe -).

Zündete.: Givens W., "TJ. S. Atomic Energy Commiss. Repts. Ser. OR NL", 1954, Nr. 1574; Wilkinson, J. H., Rundungsfehler in algebraischen Prozessen, L., 1963; Wilkinson J.

X. D. Ikramov.

N. p. Rundungs- oder Methodenfehler treten beim Lösen von Problemen auf, bei denen die Lösung das Ergebnis einer großen Anzahl nacheinander durchgeführter Arithmetik ist. Operationen.

Ein wesentlicher Teil solcher Probleme hängt mit der Lösung algebraischer Probleme zusammen. Probleme, linear oder nichtlinear (siehe oben). Wiederum unter den algebraischen Probleme treten die häufigsten Probleme bei der Approximation von Differentialgleichungen auf. Diese Aufgaben zeichnen sich durch bestimmte Besonderheiten aus. Besonderheiten.

Der N. P. der Methode zur Lösung eines Problems folgt denselben oder einfacheren Gesetzen wie der N. P. des Rechenfehlers; N., p. Methode wird untersucht, wenn die Methode zur Lösung des Problems bewertet wird.

Bei der Untersuchung der Akkumulation von Rechenfehlern werden zwei Ansätze unterschieden. Im ersten Fall wird davon ausgegangen, dass die Rechenfehler bei jedem Schritt auf die ungünstigste Weise eingeführt werden, und es wird eine Hauptfehlerschätzung erhalten. Im zweiten Fall gelten diese Fehler als zufällig mit einem bestimmten Verteilungsgesetz.

Die Art des N. p. hängt von dem zu lösenden Problem, der Lösungsmethode und einer Reihe anderer Faktoren ab, die auf den ersten Blick unbedeutend erscheinen mögen; dazu gehört die Schreibweise von Zahlen in einem Computer (Festkomma oder Gleitkomma), die Ausführungsreihenfolge von Arithmetik. Operationen usw. Zum Beispiel beim Problem der Berechnung der Summe von N Zahlen

Die Reihenfolge, in der die Operationen ausgeführt werden, ist wichtig. Lassen Sie die Berechnungen auf einer Fließkommamaschine mit t Bits durchführen und alle Zahlen liegen darin . Bei direkter Berechnung unter Verwendung der rekursiven Formel liegt die Majorant-Error-Schätzung in der Größenordnung 2-tN. Sie können auch anders vorgehen (siehe). Bei der Berechnung paarweiser Summen (Wenn N=2l+1 ungerade) nehme an . Als nächstes werden ihre paarweisen Summen berechnet und so weiter.

eine Majorant-Error-Schätzung der Ordnung erhalten

Bei typischen Problemen sind die Mengen beim nach Formeln, insbesondere wiederkehrenden, berechnet oder sequentiell in den Arbeitsspeicher des Rechners eingetragen werden; in diesen Fällen führt die Anwendung der beschriebenen Technik zu einer Erhöhung der Belastung des Computerspeichers. Es ist jedoch möglich, die Reihenfolge der Berechnungen so zu organisieren, dass die RAM-Last -log 2 N Zellen nicht überschreitet.

Bei der numerischen Lösung von Differentialgleichungen sind folgende Fälle möglich. Wenn der Gitterschritt h gegen Null tendiert, wächst der Fehler wie wo . Solche Methoden zur Problemlösung werden als instabil eingestuft. Ihre Verwendung ist episodisch. Charakter.

Stabile Methoden zeichnen sich durch eine Erhöhung des Fehlers aus, da der Fehler solcher Methoden üblicherweise wie folgt geschätzt wird. Bezüglich der entweder durch Rundung oder durch die Fehler des Verfahrens eingeführten Störung wird eine Gleichung aufgestellt und dann die Lösung dieser Gleichung untersucht (siehe , ).

In komplexeren Fällen wird die Methode der äquivalenten Störungen (siehe , ) verwendet, die im Zusammenhang mit dem Problem entwickelt wurde, die Akkumulation von Rechenfehlern beim Lösen von Differentialgleichungen zu untersuchen (siehe , , ). Berechnungen nach einem Berechnungsschema mit Rundungen gelten als Berechnungen ohne Rundungen, jedoch für eine Gleichung mit gestörten Koeffizienten. Durch Vergleichen der Lösung der ursprünglichen Gittergleichung mit der Lösung der Gleichung mit gestörten Koeffizienten wird eine Fehlerschätzung erhalten.

Großes Augenmerk wird auf die Wahl einer Methode möglichst mit kleineren Werten von q und A(h) gelegt . Bei festem Lösungsweg lassen sich die Berechnungsformeln meist in die Form wo umwandeln (siehe , ). Dies ist besonders wichtig bei gewöhnlichen Differentialgleichungen, bei denen die Anzahl der Schritte teilweise sehr groß ausfällt.

Der Wert von (h) kann mit zunehmendem Integrationsintervall stark anwachsen. Daher versuchen sie, möglichst Methoden mit einem kleineren Wert von A(h) anzuwenden. . Im Fall des Cauchy-Problems kann der Rundungsfehler bei jedem spezifischen Schritt in Bezug auf nachfolgende Schritte als Fehler in der Anfangsbedingung betrachtet werden. Daher hängt das Infimum (h) von der Charakteristik der Divergenz naher Lösungen der durch die Variationsgleichung definierten Differentialgleichung ab.

Bei einer numerischen Lösung einer gewöhnlichen Differentialgleichung die Variationsgleichung hat die Form

und daher bei der Lösung des Problems auf dem Segment ( x 0 , X) kann man sich nicht darauf verlassen, dass die Konstante A(h) in der Majorant-Schätzung des Rechenfehlers signifikant besser ist als

Daher werden zur Lösung dieses Problems am häufigsten Einschrittverfahren vom Runge-Kutta-Typ oder Verfahren vom Adams-Typ (siehe , ) verwendet, bei denen der Np hauptsächlich durch die Lösung der Gleichung in Variationen bestimmt wird.

Bei einer Reihe von Methoden akkumuliert sich der Hauptterm des Methodenfehlers nach einem ähnlichen Gesetz, während der Rechenfehler viel schneller akkumuliert (siehe ). Praxisbereich Die Anwendbarkeit solcher Methoden fällt deutlich enger aus.

Die Akkumulation des Rechenfehlers hängt wesentlich von der verwendeten Methode zur Lösung des Gitterproblems ab. Beispielsweise hat bei der Lösung von Gitterrandwertproblemen, die gewöhnlichen Differentialgleichungen entsprechen, durch Shooting- und Sweeping-Verfahren der N. p. den Charakter A(h) h-q, wobei q gleich ist. Die Werte von A(h) für diese Methoden können sich so stark unterscheiden, dass in einer bestimmten Situation eine der Methoden unanwendbar wird. Bei der Lösung des Gitterrandwertproblems für die Laplace-Gleichung nach der Schießmethode hat der N. p. den Charakter s 1/h , s>1, und im Fall des Sweep-Verfahrens Ah-q. Bei einem probabilistischen Ansatz zur Untersuchung von N. p. wird in einigen Fällen ein gewisses Gesetz der Fehlerverteilung a priori angenommen (siehe ), in anderen Fällen wird ein Maß für den Raum der betrachteten Probleme eingeführt und basierend auf Durch dieses Maß erhält man ein Verteilungsgesetz von Rundungsfehlern (siehe , ).

Bei mäßiger Genauigkeit bei der Lösung des Problems liefern Majorant- und Wahrscheinlichkeitsansätze zur Schätzung der Akkumulation von Rechenfehlern normalerweise qualitativ dieselben Ergebnisse: Entweder liegt die NI in beiden Fällen innerhalb akzeptabler Grenzen, oder in beiden Fällen überschreitet die NI diese Grenzen.

Zündete.: Voevodin V. V., Computergestützte Grundlagen der linearen Algebra, M., 1977; Shura-Bura M. R., "Applied Mathematics and Mechanics", 1952, Bd. 16, Nr. 5, S. 575-88; Bakhvalov N. S., Numerical methods, 2. Aufl., M., 1975; Wilkinson J. X., Algebraisches Eigenwertproblem, übers. aus dem Englischen, M.. 1970; Bakhvalov N. S., in dem Buch: Computermethoden und Programmierung, in. 1, M., 1962, S. 69-79; Godunov S. K., Ryaben'kii V. S., Differenzschemata, 2. Aufl., M., 1977; Bakhvalov N. S., "Berichte der Akademie der Wissenschaften der UdSSR", 1955, Bd. 104, Nr. 5, p. 683-86; sein eigenes, "J. Calculate, Mathematics and Mathematics of Physics", 1964; Bd. 4, Nr. 3, p. 399-404; Lapshin E. A., ibid., 1971, Bd. 11, Nr. 6, S. 1425-36.

  • - Abweichungen der Messergebnisse von den wahren Werten der Messgröße. Systematisch...
  • - messtechnische Abweichungen. Eigenschaften oder Parameter von Messgeräten von Bestattungsinstrumenten, die die Fehler von Messergebnissen beeinflussen ...

    Naturwissenschaft. Enzyklopädisches Wörterbuch

  • - Abweichungen der Messergebnisse von den wahren Werten der Messgröße. Sie spielen eine bedeutende Rolle bei der Erstellung einer Reihe von forensischen Untersuchungen ...

    Forensische Enzyklopädie

  • - : Siehe auch: - Messfehler - Messfehler...
  • - Suchen...

    Enzyklopädisches Wörterbuch der Metallurgie

  • - Abweichungen der messtechnischen Parameter von Messgeräten von den Nennwerten, die sich auf die Fehler der Messergebnisse auswirken ...

    Enzyklopädisches Wörterbuch der Metallurgie

  • - "... Periodische Fehler - Fehler, deren Wert eine periodische Funktion der Zeit oder der Bewegung des Zeigers des Messgeräts ist .....

    Offizielle Terminologie

  • - "... Konstante Fehler sind Fehler, die z. B. während der gesamten Messreihe über lange Zeit ihren Wert behalten. Sie treten am häufigsten auf .....

    Offizielle Terminologie

  • - "... Fortschreitende Fehler - kontinuierlich ansteigende oder abnehmende Fehler ...

    Offizielle Terminologie

  • - siehe Beobachtungsfehler...

    Enzyklopädisches Wörterbuch von Brockhaus und Euphron

  • - Messfehler, Abweichungen der Messergebnisse von den wahren Werten der gemessenen Größen. Unterscheiden Sie systematisch, zufällig und grob P. und. ...
  • - Abweichungen der metrologischen Eigenschaften oder Parameter von Messgeräten von den Nennwerten, die sich auf die Fehler der mit diesen Instrumenten erhaltenen Messergebnisse auswirken ...

    Große sowjetische Enzyklopädie

  • - die Differenz zwischen den Messergebnissen und dem wahren Wert der gemessenen Größe. Der relative Messfehler ist das Verhältnis des absoluten Messfehlers zum wahren Wert ...

    Moderne Enzyklopädie

  • - Abweichungen von Messergebnissen von den wahren Werten der gemessenen Größe ...

    Großes enzyklopädisches Wörterbuch

  • - Adj., Anzahl Synonyme: 3 korrigierte Ungenauigkeiten beseitigte Fehler ...

    Synonymwörterbuch

  • - Adj., Anzahl Synonyme: 4 korrigieren, Mängel beseitigen, Ungenauigkeiten beseitigen, Fehler beseitigen ...

    Synonymwörterbuch

"FEHLERHÄUFUNG" in Büchern

Technische Fehler

Aus dem Buch Stars und etwas nervös Autor

Technische Fehler

Aus dem Buch Vain Perfections and Other Vignettes Autor Scholkowski Alexander Konstantinowitsch

Technische Ungenauigkeiten Geschichten über erfolgreichen Widerstand gegen Gewalt sind nicht so weit hergeholt, wie wir implizit befürchten. Das Schlagen setzt normalerweise die Passivität des Opfers voraus und ist daher nur einen Schritt nach vorne gedacht und hält einem Gegenangriff nicht stand. Dad hat mir von einem erzählt

Sünden und Fehler

Aus dem Buch Wie die NASA Amerika den Mond zeigte Autor René Ralph

Sünden und Ungenauigkeiten Trotz der fiktiven Natur ihrer Weltraumnavigation rühmte sich die NASA bei allem, was sie tat, einer erstaunlichen Genauigkeit. Neunmal in Folge landeten die Apollo-Kapseln perfekt im Mondorbit, ohne dass größere Kurskorrekturen nötig waren. Mondfähre,

anfängliche Akkumulation von Kapital. Zwangsenteignung der Bauern. Anhäufung von Reichtum.

Autor

anfängliche Akkumulation von Kapital. Zwangsenteignung der Bauern. Anhäufung von Reichtum. Die kapitalistische Produktion setzt zwei Grundbedingungen voraus: 1) das Vorhandensein einer Masse armer Menschen, die persönlich frei und zugleich der Produktionsmittel beraubt sind, und

Sozialistische Akkumulation. Akkumulation und Konsum in einer sozialistischen Gesellschaft.

Aus dem Buch Politische Ökonomie Autor Ostrowijanow Konstantin Wassiljewitsch

Sozialistische Akkumulation. Akkumulation und Konsum in einer sozialistischen Gesellschaft. Die Quelle der erweiterten sozialistischen Reproduktion ist die sozialistische Akkumulation. Sozialistische Akkumulation ist die Verwendung eines Teils des Nettoeinkommens der Gesellschaft,

Messfehler

TSB

Fehler von Messgeräten

Aus dem Buch Great Soviet Encyclopedia (PO) des Autors TSB

Ultraschallfehler

Aus dem Buch Thyroid Recovery A Guide for Patients Autor Uschakow Andrej Walerjewitsch

Ultraschallfehler Als ein Patient aus St. Petersburg zu mir zu einer Konsultation kam, sah ich drei Protokolle der Ultraschalluntersuchung gleichzeitig. Alle von ihnen wurden von verschiedenen Spezialisten hergestellt. Anders beschrieben. Gleichzeitig wichen die Daten der Studien fast voneinander ab

Anlage 13 Sprachfehler

Aus dem Buch Die Kunst, sich etwas Eigenes zuzulegen Autor Stepanow Sergej Sergejewitsch

Anhang 13 Sprachfehler Selbst scheinbar harmlose Sätze können oft zu einem ernsthaften Hindernis für die Beförderung werden. Der berühmte amerikanische Marketingspezialist John R. Graham hat eine Liste von Ausdrücken zusammengestellt, deren Verwendung nach seinen Beobachtungen

Sprachfehler

Aus dem Buch Wie viel bist du wert [Technologie für eine erfolgreiche Karriere] Autor Stepanow Sergej Sergejewitsch

Sprachfehler Selbst scheinbar harmlose Phrasen können oft zu einem ernsthaften Beförderungshindernis werden. Der berühmte amerikanische Marketingspezialist John R. Graham hat eine Liste von Ausdrücken zusammengestellt, deren Verwendung nach seinen Beobachtungen nicht zulässig war

fatale Fehler

Aus dem Buch The Black Swan [Im Zeichen der Unberechenbarkeit] Autor Taleb Nassim Nikolaus

Tödliche Irrtümer Irrtümer haben eine so zerstörerische Eigenschaft: Je bedeutsamer sie sind, desto größer ist ihre Maskierungswirkung: Niemand sieht tote Ratten, und je tödlicher also das Risiko, desto unauffälliger ist es, weil die Opfer von der Zeugenzahl ausgeschlossen werden . Wie

Orientierungsfehler

Aus dem Buch Das ABC des Tourismus Autor Bardin Kirill Wassiljewitsch

Orientierungsfehler Ein häufiges Orientierungsproblem, das ein Tourist lösen muss, besteht darin, nur mit einem Kompass und einer Karte von einem Punkt zum anderen zu gelangen. Die Gegend ist ungewohnt und außerdem geschlossen, dh ohne jegliche

Fehler: Philosophie

Aus dem Buch des Autors

Fehler: Philosophie Auf einer intuitiven Ebene verstehen wir, dass unser Wissen in vielen Fällen nicht korrekt ist. Wir können vorsichtig davon ausgehen, dass unser Wissen im Allgemeinen nur auf einer diskreten Skala genau sein kann. Sie können genau wissen, wie viele Bälle in der Tasche sind, aber Sie können nicht wissen, wie schwer sie sind.

Unsicherheiten: Modelle

Aus dem Buch des Autors

Fehler: Modelle Wenn wir etwas messen, ist es zweckmäßig, die zu Beginn der Messungen verfügbaren Informationen (sowohl bewusste als auch unbewusste) in Form von Modellen eines Objekts oder Phänomens darzustellen. Das „Null-Niveau“-Modell ist das Modell, eine Menge zu haben. Wir glauben, dass sie -

Fehler: Was und wie zu kontrollieren

Aus dem Buch des Autors

Fehler: Was und wie zu kontrollieren Die Auswahl der kontrollierten Parameter, des Messschemas, der Methode und des Umfangs der Kontrolle erfolgt unter Berücksichtigung der Ausgangsparameter des Produkts, seiner Konstruktion und Technologie, der Anforderungen und Bedürfnisse des Benutzers der kontrollierten Produkte . Wieder mal,

1.2.10. Verarbeitung indirekter Messungen.

Bei indirekten Messungen der gewünschte Wert der physikalischen Größe Y anhand der Ergebnisse gefunden X 1 , X 2 , … X ich , … X n, direkte Messungen anderer physikalischer Größen, die mit der gewünschten bekannten funktionalen Abhängigkeit φ verbunden sind:

Y= φ( X 1 , X 2 , …X ich , … X n). (1.43)

Vorausgesetzt, dass X 1 , X 2 , … X ich , … X n die korrigierten Ergebnisse direkter Messungen sind und die methodischen Fehler indirekter Messungen vernachlässigt werden können, kann das Ergebnis indirekter Messungen direkt durch Formel (1.43) gefunden werden.

Wenn Δ X 1 , Δ X 2 , … Δ X ich , … Δ X n– Fehler in den Ergebnissen direkter Größenmessungen X 1 , X 2 , … X ich , … X n, dann der Fehler Δ des Ergebnisses Y indirekte Messung in der linearen Näherung kann durch die Formel gefunden werden

Δ = . (1.44)

Begriff

(1.45)

ist der Fehleranteil des indirekten Messergebnisses, verursacht durch den Fehler Δ X ich Ergebnis X ich direkte Messung - wird Teilfehler genannt, und die Näherungsformel (1.44) - das Gesetz der Akkumulation partieller Fehler. (1K22)

Um den Fehler Δ des Ergebnisses einer indirekten Messung abzuschätzen, ist es notwendig, einige Informationen über die Fehler Δ zu haben X 1 , Δ X 2 , … Δ X ich , … Δ X n Ergebnisse direkter Messungen.

Üblicherweise sind die Grenzwerte der Fehleranteile direkter Messungen bekannt. Zum Beispiel für den Fehler Δ X ich bekannt: die Grenze des Grundfehlers, die Grenzen zusätzlicher Fehler, die Grenze nicht ausgeschlossener Residuen des systematischen Fehlers usw. Fehler Δ X ich ist gleich der Summe dieser Fehler:

,

und den Grenzwert dieses Fehlers ΔX ich,p - die Summe der Grenzen:

. (1.46)

Dann der Grenzwert Δ p des Fehlers des Ergebnisses der indirekten Messung P = 1 kann durch die Formel gefunden werden

Δ p =
. (1.47)

Grenzwert Δ g des Fehlers des Ergebnisses der indirekten Messung für das Vertrauensniveau P = 0,95 kann mit der Näherungsformel (1,41) ermittelt werden. Unter Berücksichtigung von (1.44) und (1.46) erhalten wir:

. (1.48)

Nach der Berechnung von Δ p oder Δ g sollte das Ergebnis der indirekten Messung in Standardform geschrieben werden (bzw. (1.40) oder (1.42)). (1P3)

FRAGEN:

1. Für welche Aufgaben verwendet werden Messgeräte? Welche Art messtechnische Eigenschaften Messgeräte kennen Sie?

2. Nach welchen Kriterien werden sie klassifiziert? messtechnische Eigenschaften Messgeräte?

3. Welche Komponente des Fehlers des Messgeräts heißt Basic?

4. Welche Komponente des Fehlers des Messgeräts genannt wird zusätzlich?

5. Definieren absolute, relative und reduzierte Fehler Messgeräte.

6. Definieren absoluter Fehler des Messumformers am Ein- und Ausgang.

7. Wie würden Sie experimentell feststellen Messumformerfehler für Eingang und Ausgang?

8. Wie vernetzt absolute Fehler des Messumformers für Eingang und Ausgang?

9. Definieren additive, multiplikative und nichtlineare Fehleranteile von Messgeräten.

10. Warum nichtlinearer Anteil des Fehlers der Messeinrichtung manchmal genannt Linearitätsfehler? Wofür Wandlerumwandlungsfunktionen es ergibt Sinn?

11. Welche Informationen über den Fehler des Messgeräts gibt es Genauigkeitsklasse?

12. Formulieren das Gesetz der Akkumulation partieller Fehler.

13. Formulieren Fehlersummenproblem.

15. Was ist korrigierter Wert des Messergebnisses?

16. Was ist der Zweck Verarbeitung von Messergebnissen?

17. Wie man rechnet GrenzwertΔ p Fehler direktes Messergebnis für das Konfidenzniveau P= 1 und seine GrenzwertΔg für P = 0,95?

18. Welche Messung heißt indirekt? wie Finden Sie das Ergebnis einer indirekten Messung?

19. Wie man rechnet GrenzwertΔ p Fehler indirektes Messergebnis für das Konfidenzniveau P= 1 und seine GrenzwertΔg für P = 0,95?

20. Nennen Sie Beispiele für methodische Fehler bei direkten und indirekten Messungen.

Kontrollarbeiten nach Unterabschnitt 1.2 sind angegeben (1KR1).

REFERENZEN für Abschnitt 1.

2. METHODEN ZUR MESSUNG ELEKTRISCHER GRÖSSEN

2.1. Messung von Spannungen und Strömen.

2.1.1. Allgemeine Information.

Bei der Auswahl eines Mittels zur Messung elektrischer Spannungen und Ströme ist zunächst Folgendes zu berücksichtigen:

Art der gemessenen physikalischen Größe (Spannung oder Strom);

Das Vorhandensein und die Art der Abhängigkeit des gemessenen Werts von der Zeit über das Beobachtungsintervall (abhängig oder nicht, die Abhängigkeit ist eine periodische oder nicht periodische Funktion usw.);

Der Bereich möglicher Werte des Messwerts;

Messgröße (Mittelwert, Effektivwert, Maximalwert im Beobachtungsintervall, Satz von Momentanwerten im Beobachtungsintervall etc.);

Frequenzbereich;

Erforderliche Messgenauigkeit;

Das maximale Beobachtungszeitintervall.

Außerdem müssen die Wertebereiche der Einflussgrößen (Umgebungstemperatur, Versorgungsspannung des Messgeräts, Ausgangsimpedanz der Signalquelle, elektromagnetische Störungen, Vibration, Feuchtigkeit usw.) berücksichtigt werden. abhängig von den Bedingungen des Messversuchs.

Die Bereiche möglicher Werte von Spannungen und Strömen sind sehr breit. Beispielsweise können Ströme in der Größenordnung von 10 -16 A liegen, wenn sie im Weltraum gemessen werden, und in der Größenordnung von 10 5 A - in den Schaltkreisen von leistungsstarken Kraftwerken. Dieser Abschnitt befasst sich hauptsächlich mit Spannungs- und Strommessungen in den in der Praxis am häufigsten vorkommenden Bereichen: von 10 -6 bis 10 3 V und von 10 -6 bis 10 4 A.

Zum Messen von Spannungen, analog (elektromechanisch und elektronisch) und digital Voltmeter(2K1), DC- und AC-Kompensatoren (Potentiometer), analoge und digitale Oszilloskope und Messsysteme.

Zur Strommessung, elektromechanisch Amperemeter(2K2), und auch Multimeter und Messsysteme, bei denen der gemessene Strom zunächst in eine dazu proportionale Spannung umgewandelt wird. Darüber hinaus wird eine indirekte Methode verwendet, um Ströme experimentell zu bestimmen, indem die Spannung gemessen wird, die durch den Stromfluss durch einen Widerstand mit bekanntem Widerstand verursacht wird.

2.1.2. Messung konstanter Spannungen durch elektromechanische Geräte.

Um Voltmeter zu erstellen, verwenden Sie Folgendes Messmechanismen(2K3): magnetoelektrisch(2K4), elektromagnetisch(2K5), elektrodynamisch(2K6), ferrodynamisch(2K7) und elektrostatisch(2K8).

Bei einem magnetoelektrischen Messwerk ist das Drehmoment proportional zum Strom in der Schwingspule. Um ein Voltmeter in Reihe mit der Spulenwicklung zu bauen, ist ein zusätzlicher Widerstand enthalten. Die an dieser Reihenschaltung anliegende Messspannung ist proportional zum Strom in der Wicklung; Daher kann die Skala des Instruments in Spannungseinheiten unterteilt werden. Die Richtung des Drehmoments hängt von der Richtung des Stroms ab, achten Sie also auf die Polarität der am Voltmeter anliegenden Spannung.

Eingangsimpedanz R der Eingang des magnetoelektrischen Voltmeters hängt vom Endwert ab U zu Messbereich und Gesamtablenkstrom ich ein - Strom in der Spulenwicklung, bei dem der Pfeil des Geräts von der vollen Skala abweicht (er wird auf die Markierung eingestellt U zu). Es ist klar, dass

R im = U zu / ich An. (2.1)

Bei Multi-Limit-Instrumenten wird der Wert oft normalisiert R in und aktuell ich An. Die Spannung kennen U k für den in diesem Experiment verwendeten Messbereich den Wert R in kann nach Formel (2.1) berechnet werden. Zum Beispiel für ein Voltmeter mit U k = 100 V und ich po = 1mA R in = 10 5 Ohm.

Zum Bau von elektromagnetischen, elektrodynamischen und ferrodynamischen Voltmetern wird eine ähnliche Schaltung verwendet, nur der zusätzliche Widerstand wird in Reihe mit der Wicklung der festen Spule des elektromagnetischen Messwerks oder mit den Wicklungen der beweglichen und festen Spule der elektrodynamischen oder ferrodynamischen geschaltet zuvor in Reihe geschaltete Messwerke. Die Gesamtablenkströme sind bei diesen Messwerken meist deutlich höher als bei den magnetoelektrischen, daher sind die Eingangswiderstände von Voltmetern geringer.

Elektrostatische Voltmeter verwenden ein elektrostatisches Messwerk. Die gemessene Spannung wird zwischen festen und beweglichen Platten angelegt, die voneinander isoliert sind. Der Eingangswiderstand wird durch den Isolationswiderstand bestimmt (ca. 10 9 Ohm).

Die gängigsten elektromechanischen Voltmeter mit Genauigkeitsklassen von 0,2. 0,5, 1,0, 1,5 ermöglichen die Messung von Gleichspannungen im Bereich von 0,1 bis 10 4 V. Um große Spannungen (normalerweise mehr als 10 3 V) zu messen, verwenden Sie Spannungsteiler(2K9). Zur Messung von Spannungen kleiner 0,1 V, magnetoelektrisch Galvanometer(2K10) und darauf basierende Geräte (z. B. photogalvanometrische Geräte), aber es ist zweckmäßiger, digitale Voltmeter zu verwenden.

2.1.3. Messung von Gleichströmen durch elektromechanische Geräte.

Um Amperemeter zu erstellen, verwenden Sie Folgendes Messmechanismen(2K3): magnetoelektrisch(2K4), elektromagnetisch(2K5), elektrodynamisch(2K6) und ferrodynamisch(2K7).

Bei den einfachsten Eingrenzstrommessern besteht der Messstromkreis aus einer Schwingspule (bei einem magnetoelektrischen Messwerk), einer Festspule (bei einem elektromagnetischen Messwerk) oder in Reihe geschalteten Schwing- und Festspulen (bei elektrodynamischen Messwerken). und ferrodynamische Messwerke). Sie haben also im Gegensatz zu Voltmeterschaltungen keine zusätzlichen Widerstände.

Multi-Limit-Amperemeter werden auf der Grundlage von Single-Limit-Amperemetern gebaut, wobei verschiedene Techniken verwendet werden, um die Empfindlichkeit zu reduzieren. Beispielsweise den gemessenen Strom durch einen Teil der Spulenwicklung leiten oder die Spulenwicklungen parallel einbeziehen. Es werden auch Shunts verwendet - Widerstände mit relativ niedrigen Widerständen, die parallel zu den Wicklungen geschaltet sind.

Die gängigsten elektromechanischen Amperemeter mit den Genauigkeitsklassen 0,2. Mit 0,5, 1,0, 1,5 können Sie Gleichströme im Bereich von 10 -6 bis 10 4 A messen. Um Ströme unter 10 -6 A zu messen, können Sie magnetoelektrisch verwenden Galvanometer(2K10) und darauf basierende Geräte (z. B. photogalvanometrische Geräte).

2.1.4. Messung von Wechselströmen und -spannungen

Elektromechanische Geräte.

Elektromechanische Amperemeter und Voltmeter dienen zur Messung der Effektivwerte von periodischen Strömen und Spannungen. Um sie zu erstellen, werden elektromagnetische, elektrodynamische und ferrodynamische sowie elektrostatische (nur für Voltmeter) Messmechanismen verwendet. Zu den elektromechanischen Amperemetern und Voltmetern zählen darüber hinaus auch Geräte, die auf einem magnetoelektrischen Messwerk mit Wechsel- oder Gleichspannungswandlern (Gleichrichtern und thermoelektrischen Geräten) basieren.

Die Messkreise von elektromagnetischen, elektrodynamischen und ferrodynamischen Amperemetern und AC-Voltmetern unterscheiden sich praktisch nicht von den Schaltungen ähnlicher DC-Geräte. Mit all diesen Geräten können sowohl Gleich- als auch Wechselströme und -spannungen gemessen werden.

Der Momentanwert des Drehmoments in diesen Geräten wird durch das Quadrat des Momentanwerts des Stroms in den Spulenwicklungen bestimmt, und die Position des Zeigers hängt vom Mittelwert des Drehmoments ab. Daher misst das Gerät unabhängig von der Form der Kurve den Effektivwert (Effektivwert) des gemessenen periodischen Stroms oder der gemessenen Spannung. Die gängigsten Amperemeter und Voltmeter mit Genauigkeitsklassen von 0,2. 0,5, 1,0, 1,5 ermöglichen die Messung von Wechselströmen von 10 -4 bis 10 2 A und Spannungen von 0,1 bis 600 V im Frequenzbereich von 45 Hz bis 5 kHz.

Mit elektrostatischen Voltmetern können auch konstante und effektive Werte von Wechselspannungen unabhängig von der Kurvenform gemessen werden, da der Momentanwert des Drehmoments bei diesen Geräten durch das Quadrat des Momentanwerts der gemessenen Spannung bestimmt wird . Mit den gängigsten Voltmetern der Genauigkeitsklassen 0,5, 1,0, 1,5 können Sie Wechselspannungen von 1 bis 10 5 V im Frequenzbereich von 20 Hz bis 10 MHz messen.

Magnetoelektrische Amperemeter und Voltmeter, die für den Betrieb in Gleichstromkreisen ausgelegt sind, können die Effektivwerte von Wechselströmen und -spannungen nicht messen. Tatsächlich ist der Momentanwert des Drehmoments in diesen Geräten proportional zum Momentanwert des Stroms in der Spule. Bei einem sinusförmigen Strom ist der Mittelwert des Drehmoments und dementsprechend der Instrumentenwert Null. Wenn der Strom in der Spule eine konstante Komponente hat, ist der Messwert des Geräts proportional zum Mittelwert des Stroms in der Spule.

Um AC-Amperemeter und -Voltmeter basierend auf einem magnetoelektrischen Messmechanismus zu erstellen, werden AC-DC-Wandler auf der Basis von Halbleiterdioden oder thermischen Wandlern verwendet. Auf Abb. 2.1 zeigt eine der möglichen Schaltungen des Amperemeters des Gleichrichtersystems und in Abb. 2.2 - thermoelektrisch.

Im Amperemeter des Gleichrichtersystems der gemessene Strom ich(t) richtet sich auf und durchläuft die Spulenwicklung des magnetoelektrischen Messwerks IM. Der Messwert des Geräts ist proportional zum durchschnittlichen Modulo für den Zeitraum T aktueller Wert:

. (2.2)

Bedeutung ich cp ist proportional zum Effektivwert des Stroms, der Proportionalitätsfaktor hängt jedoch von der Art der Funktion ab ich(t). Alle Geräte des Gleichrichtersystems sind auf Effektivwerte von Strömen (oder Spannungen) sinusförmiger Form kalibriert und nicht für Messungen in Stromkreisen mit Strömen beliebiger Form bestimmt.

Im Amperemeter eines thermoelektrischen Systems der gemessene Strom ich(t) durchläuft die Heizung des thermischen Konverters TP. Bei Erwärmung entsteht an den freien Enden des Thermoelements eine Thermo-EMK, die einen Gleichstrom durch die Spulenwicklung des magnetoelektrischen Messwerks des IM verursacht. Der Wert dieses Stroms hängt nichtlinear vom Effektivwert ab ich gemessener Strom ich(t) und wenig hängt von seiner Form und seinem Spektrum ab.

Voltmeterschaltungen von Gleichrichter- und thermoelektrischen Systemen unterscheiden sich von Amperemeterschaltungen durch das Vorhandensein eines zusätzlichen Widerstands, der in Reihe mit dem Stromkreis des gemessenen Stroms geschaltet ist ich(t) und als Wandler der gemessenen Spannung in Strom wirkt.

Die gängigsten Amperemeter und Voltmeter des Gleichrichtersystems mit den Genauigkeitsklassen 1,0 und 1,5 ermöglichen die Messung von Wechselströmen von 10 -3 bis 10 A und Spannungen von 1 bis 600 V im Frequenzbereich von 45 Hz bis 10 kHz.

Die gängigsten Amperemeter und Voltmeter für thermoelektrische Systeme mit den Genauigkeitsklassen 1,0 und 1,5 ermöglichen die Messung von Wechselströmen von 10 -4 bis 10 2 A und Spannungen von 0,1 bis 600 V im Frequenzbereich von 1 Hz bis 50 MHz.

Üblicherweise werden Geräte von Gleichrichter- und thermoelektrischen Systemen mit mehreren Bereichen hergestellt und kombiniert, wodurch sie sowohl zur Messung von Wechsel- als auch von Gleichströmen und -spannungen verwendet werden können.

2.1.5. Gleichspannungsmessung

Anders als elektromechanisch analoge Voltmeter(2K11) elektronische Voltmeter enthalten Spannungsverstärker. Die aussagekräftige Größe der gemessenen Spannung wird bei diesen Geräten in der Spulenwicklung des magnetoelektrischen Messwerks in Gleichstrom umgewandelt (2K4), dessen Skala in Spannungseinheiten kalibriert ist.

Der elektronische Voltmeterverstärker muss in einem bestimmten Frequenzbereich ab einer niedrigeren Frequenz eine stabile Verstärkung aufweisen f n nach oben f in. Wenn ein f n = 0, dann wird üblicherweise ein solcher Verstärker genannt DC-Verstärker, und wenn f n > 0 und die Verstärkung ist Null bei f = 0 – AC-Verstärker.

Eine vereinfachte Schaltung eines elektronischen DC-Voltmeters besteht aus drei Hauptkomponenten: einem Eingangsspannungsteiler (2K9), einen mit seinem Ausgang verbundenen Gleichstromverstärker und ein magnetoelektrisches Voltmeter. Ein hochohmiger Spannungsteiler und ein DC-Verstärker sorgen für eine hohe Eingangsimpedanz des elektronischen Voltmeters (in der Größenordnung von 1 MΩ). Die Teilungs- und Verstärkungsfaktoren können diskret eingestellt werden, was die Herstellung von Mehrbereichsvoltmetern ermöglicht. Aufgrund der hohen Verstärkung von elektronischen Voltmetern wird eine höhere Empfindlichkeit im Vergleich zu elektromechanischen bereitgestellt.

Ein Merkmal von elektronischen DC-Voltmetern ist Drift- Langsame Änderungen der Voltmeteranzeige bei konstant gemessener Spannung (1Q14), verursacht durch Änderungen in den Parametern der Elemente der DC-Verstärkerschaltungen. Die Drift der Messwerte ist am signifikantesten, wenn Niederspannungen gemessen werden. Daher müssen vor Beginn der Messungen spezielle Einstellelemente verwendet werden, um den Nullwert des Voltmeters mit einem kurzgeschlossenen Eingang einzustellen.

Wird an das betreffende Voltmeter eine periodische Wechselspannung angelegt, so misst es aufgrund der Eigenschaften des magnetoelektrischen Messwerks den Gleichanteil dieser Spannung, es sei denn, der Wechselanteil ist zu groß und der Voltmeterverstärker arbeitet linear Modus.

Mit den gebräuchlichsten analogen elektronischen Gleichspannungsmessern können Sie Spannungen im Bereich von 10 -6 bis 10 3 V messen. Die Werte der Grenzen des reduzierten Grundfehlers hängen vom Messbereich ab und betragen normalerweise ± (0,5 - 5,0) %.

2.1.6. Messung von Wechselspannungen

analoge elektronische Voltmeter.

Analoge elektronische Voltmeter werden hauptsächlich verwendet, um die Effektivwerte periodischer Spannungen in einem weiten Frequenzbereich zu messen.

Der Hauptunterschied zwischen der Schaltung eines elektronischen Wechselspannungsmessers und der oben betrachteten Schaltung eines Gleichspannungsmessers hängt mit dem Vorhandensein eines zusätzlichen Knotens darin zusammen - einem Konverter des informativen Parameters Wechselspannung in Gleichspannung. Solche Wandler werden oft als "Detektoren" bezeichnet.

Es gibt Detektoren für Amplituden-, Modulo-Durchschnitts- und effektive Spannungswerte. Die konstante Spannung am Ausgang des ersten ist proportional zur Amplitude der Spannung an seinem Eingang, die konstante Spannung am Ausgang des zweiten ist proportional zum Modulo-Mittelwert der Eingangsspannung und der dritte ist der effektive.

Jede der drei angegebenen Meldergruppen kann wiederum in zwei Gruppen unterteilt werden: Melder mit offenem Eingang und Melder mit geschlossenem Eingang. Bei Detektoren mit offenem Eingang hängt die Ausgangsspannung vom DC-Anteil der Eingangsspannung ab, bei Detektoren mit geschlossenem Eingang nicht. Wenn die Schaltung eines elektronischen Voltmeters einen Detektor mit geschlossenem Eingang oder einen Wechselstromverstärker hat, hängen die Messwerte eines solchen Voltmeters offensichtlich nicht von der konstanten Komponente der gemessenen Spannung ab. Ein solches Voltmeter ist vorteilhaft in Fällen zu verwenden, in denen nur die variable Komponente der gemessenen Spannung nützliche Informationen trägt.

Vereinfachte Diagramme von Amplitudendetektoren mit offenen und geschlossenen Eingängen sind in den Fig. 4 und 5 gezeigt. 2.3 und 2.4.


Beim Anlegen an den Eingang eines Amplitudendetektors mit offenem Spannungseingang u(t) = U m sinωt Kondensator wird auf Spannung aufgeladen U m, was die Diode ausschaltet. Gleichzeitig wird am Ausgang des Detektors eine konstante Spannung aufrechterhalten. U m. Wenn Sie eine beliebige Spannung an den Eingang anlegen, wird der Kondensator auf den maximalen positiven Wert dieser Spannung aufgeladen.

Beim Anlegen an den Eingang eines Amplitudendetektors mit geschlossenem Spannungseingang u(t) = U m sinωt Der Kondensator wird auch auf Spannung aufgeladen U m und die Ausgangsspannung u(t) = U m + U m sinωt. Wenn eine solche Spannung oder ein dazu proportionaler Strom an die Spulenwicklung eines magnetoelektrischen Messwerks angelegt wird, hängen die Messwerte des Instruments von der konstanten Komponente dieser Spannung ab, die gleich ist U m (2K4). Wenn Spannung am Eingang anliegt u(t) = U Heiraten + U m sinωt, wo U Heiraten– durchschnittlicher Spannungswert u(t) , wird der Kondensator auf eine Spannung aufgeladen U m + U Heiraten, und die Ausgangsspannung wird eingestellt u(t) = U m + U m sinωt, unabhängig von U Heiraten .

Beispiele für Modulo-Mittelwert- und Effektivspannungsdetektoren wurden in Unterabschnitt 2.1.4 betrachtet (Abb. 2.1 bzw. 2.2).

Amplituden- und Modulo-Durchschnittsdetektoren sind einfacher als RMS-Detektoren, aber darauf basierende Voltmeter können nur zum Messen von sinusförmigen Spannungen verwendet werden. Tatsache ist, dass ihre Messwerte je nach Detektortyp proportional zu den durchschnittlichen Modulo- oder Amplitudenwerten der gemessenen Spannung sind. Daher können die betrachteten analogen elektronischen Voltmeter nur für eine bestimmte Form der gemessenen Spannung in Effektivwerten kalibriert werden. Dies geschieht für die gebräuchlichste - sinusförmige Spannung.

Mit den gängigsten analogen elektronischen Voltmetern können Sie Spannungen von 10 -6 bis 10 3 V im Frequenzbereich von 10 bis 10 9 Hz messen. Die Werte der Grenzen des reduzierten Grundfehlers hängen vom Messbereich und der Frequenz der gemessenen Spannung ab und betragen in der Regel ± (0,5 - 5,0) %.

Die Messmethode mit elektronischen Voltmetern unterscheidet sich von der Methode mit elektromechanischen Voltmetern. Dies ist darauf zurückzuführen, dass in ihnen elektronische Verstärker mit Gleichstromversorgung vorhanden sind, die normalerweise vom Wechselstromnetz betrieben werden.


Wenn jedoch Klemme 6 mit der Eingangsklemme 1 des Voltmeters verbunden wird und beispielsweise die Spannung gemessen wird U 65, dann wird das Messergebnis durch die Störspannung verfälscht, deren Wert von den Parametern der Ersatzschaltbilder in Abb. 2.5 und 2.6.

Mit direkter Spannungsmessung U 54 Störungen verfälschen das Messergebnis, egal wie das Voltmeter angeschlossen ist. Dies kann durch indirekte Messung durch Messen der Spannungen vermieden werden U 64 und U 65 und berechnet U 54 = U 64 - U 65 . Die Genauigkeit einer solchen Messung ist jedoch möglicherweise nicht hoch genug, insbesondere wenn U 64 ≈ U 65 . (2K12)

Analytische Chemie

UDC 543.08+543.422.7

VORHERSAGE VON FEHLERN IN DER FOTOMETRIE MIT DEM GESETZ DER FEHLERAKKUMULATION UND DER MONTE-CARLO-METHODE

IN UND. Golovanov, EM Danilina

In einem Rechenexperiment mit einer Kombination aus Fehlerfortpflanzungsgesetz und Monte-Carlo-Methode wurde der Einfluss von Fehlern bei der Lösungsherstellung, Fehlern im Blindversuch und Transmissionsmessfehlern auf die metrologischen Eigenschaften der photometrischen Analyse untersucht . Es wurde festgestellt, dass die Ergebnisse der Fehlervorhersage durch analytische und statistische Verfahren miteinander konsistent sind. Es wird gezeigt, dass ein Merkmal der Monte-Carlo-Methode die Möglichkeit ist, das Verteilungsgesetz von Fehlern in der Photometrie vorherzusagen. Am Beispiel eines Routineanalyseszenarios wird der Einfluss der Heteroskedastizität der Streuung entlang der Kalibrierkurve auf die Qualität der Analyse betrachtet.

Schlüsselwörter: Photometrische Analyse, Fehlerakkumulationsgesetz, Kalibrierkurve, messtechnische Eigenschaften, Monte-Carlo-Methode, stochastische Simulation.

Einführung

Die Vorhersage von photometrischen Analysefehlern basiert hauptsächlich auf der Verwendung des Fehlerakkumulationsgesetzes (ELL). Für den Fall einer linearen Form des Lichtabsorptionsgesetzes: - 1§T \u003d A \u003d b1s wird ZNO normalerweise durch die Gleichung geschrieben:

8A_8C_0,434-10^

Ein ‘8T-

Dabei wird die Standardabweichung der Transmissionsgradmessung über den gesamten Dynamikbereich des Photometers als konstant angenommen. Gleichzeitig wird, wie in erwähnt, die Genauigkeit der Analyse zusätzlich zu den instrumentellen Fehlern durch den Fehler eines Blindversuchs, den Fehler bei der Einstellung der Skalengrenzen des Instruments, den Küvettenfehler, chemische Faktoren und den Fehler in beeinflusst Einstellen der analytischen Wellenlänge. Diese Faktoren gelten als Hauptfehlerquellen im Analyseergebnis. Beiträge zum akkumulierten Fehler in der Genauigkeit der Herstellung von Kalibrierlösungen werden normalerweise vernachlässigt.

Daraus sehen wir, dass Gleichung (1) keine signifikante Prognosekraft hat, da sie den Einfluss nur eines Faktors berücksichtigt. Außerdem ist Gleichung (1) eine Konsequenz aus der ungefähren Entwicklung des Lichtabsorptionsgesetzes in eine Taylorreihe. Dies wirft die Frage nach der Genauigkeit auf, da die Entwicklungsterme oberhalb der ersten Ordnung vernachlässigt werden. Die mathematische Analyse von Zersetzungsrückständen ist mit Rechenschwierigkeiten verbunden und wird in der Praxis der chemischen Analyse nicht angewendet.

Ziel dieser Arbeit ist es, die Möglichkeit zu untersuchen, die Monte-Carlo-Methode (Methode statistischer Tests) als unabhängige Methode zur Untersuchung und Vorhersage der Akkumulation photometrischer Analysefehler zu verwenden, die die Möglichkeiten von ZNO ergänzt und vertieft.

Theoretischer Teil

In dieser Arbeit gehen wir davon aus, dass der endgültige zufällige Fehler der Kalibrierfunktion nicht nur auf instrumentelle Fehler bei der Messung der optischen Dichte zurückzuführen ist, sondern auch auf Fehler bei der Einstellung der Instrumentenskala auf 0 und 100 % Transmission (der Fehler von

einfacher Versuch) sowie Fehler bei der Herstellung von Kalibrierlösungen. Die anderen oben genannten Fehlerquellen vernachlässigen wir. Dann schreiben wir die Gleichung des Bouguer-Lambert-Beer-Gesetzes in einer Form um, die für die weitere Konstruktion geeignet ist:

Ay \u003d ks " + A

In dieser Gleichung ist c51 die Konzentration der Kopfstandardlösung der gefärbten Substanz, von der Aliquots (Ya) in Kolben mit einem Nennvolumen von Vsp verdünnt werden, um eine Kalibrierungsreihe von Lösungen zu erhalten, Ay ist die optische Dichte der Blindprobe Versuchslösung. Da während der Photometrie die optische Dichte der getesteten Lösungen relativ zur Blindlösung gemessen wird, d. h. Ay als bedingter Nullwert genommen wird, ist Ay = 0. (Beachten Sie, dass der in diesem Fall gemessene Wert der optischen Dichte als bedingt bezeichnet werden kann Extinktion.) In Gleichung (2) hat die dimensionslose Größe c" die Bedeutung der Konzentration der Arbeitslösung, ausgedrückt in Einheiten der Konzentration des Ausgangsstandards. Wir nennen den Koeffizienten k die Extinktion des Standards, da Ag1 = e1c81 bei c" = 1.

Wenden wir auf den Ausdruck (2) den Operator des Gesetzes der Akkumulation von Zufallsfehlern an, wobei Va, Yd und Ay als Zufallsvariablen angenommen werden. Wir bekommen:

Eine weitere unabhängige Zufallsvariable, die die Streuung von A-Werten beeinflusst, ist der Transmissionsgrad, da

A = -1§T, (4)

deshalb fügen wir den Dispersionen auf der linken Seite von Gleichung (3) einen weiteren Term hinzu:

52a \u003d (0,434-10a) H + 8Іbі +

In dieser abschließenden Aufzeichnung des Fehlerakkumulationsgesetzes sind die absoluten Standardabweichungen von T, Ay und Yd konstant, und für Va ist der relative Standardfehler konstant.

Bei der Konstruktion eines stochastischen Modells der Kalibrierfunktion nach der Monte-Carlo-Methode berücksichtigen wir, dass die möglichen Werte x* der Zufallsvariablen T, Ay, Ua und Yd nach dem Normalgesetz verteilt sind. Nach dem Monte-Carlo-Prinzip werden wir die möglichen Werte nach der Umkehrfunktionsmethode spielen:

x; \u003d M (x1) + p-1 (r]) - inX |, (6)

wobei M(x) der Erwartungswert (Istwert) der Variablen ist, ¥(r^) die Laplace-Gauß-Funktion ist, q die möglichen Werte der Zufallsvariablen R gleichverteilt über das Intervall (0,1) sind , d.h. Zufallszahlen, sx - Standardabweichung der entsprechenden Variablen, \ = 1...m - Ordnungszahl einer unabhängigen Zufallsvariablen. Nach Einsetzen des Ausdrucks (6) in die Gleichungen (4) und (2) haben wir:

A" \u003d -18Xi \u003d -1810-a + P-1 (g]) 8t,

wobei A" = "k-+ x2

Berechnungen nach Gleichung (7) liefern eine separate Implementierung der Kalibrierfunktion, d. h. Abhängigkeit A" vom mathematischen Erwartungswert M(s") (Nennwert c"). Satz (7) ist also ein analytischer Ausdruck einer Zufallsfunktion. Die Wirkungsquerschnitte dieser Funktion erhält man durch wiederholtes Spielen von Zufallszahlen an jedem Punkt der Kalibrierungsabhängigkeit Ein Stichprobensatz von Implementierungen wird mit Methoden der mathematischen Statistik verarbeitet, um die allgemeinen Parameter der Kalibrierung zu schätzen und Hypothesen über die Eigenschaften der allgemeinen Population zu testen.

Offensichtlich sollten sich die beiden Ansätze, die wir für das Problem der Vorhersage metrologischer Eigenschaften in der Photometrie in Betracht ziehen - einerseits basierend auf der ZNO und andererseits basierend auf der Monte-Carlo-Methode, gegenseitig ergänzen. Insbesondere aus Gleichung (5) kann man mit einem viel geringeren Rechenaufwand im Vergleich zu (7) ein Ergebnis sowie eine Rangordnung erhalten

Zufallsvariablen anhand der Signifikanz ihrer Beiträge zum resultierenden Fehler berechnen. Das Ranking ermöglicht es Ihnen, das Screening-Experiment in statistischen Tests aufzugeben und unbedeutende Variablen von vornherein von der Berücksichtigung auszuschließen. Gleichung (5) lässt sich leicht mathematisch analysieren, um die Art der Beiträge der Faktoren zur Gesamtvarianz zu beurteilen. Teilbeiträge von Faktoren können unterteilt werden in unabhängig von A oder zunehmend mit zunehmender optischer Dichte. Daher muss sA als Funktion von A eine monoton steigende Abhängigkeit ohne Minimum sein. Bei der Approximation der experimentellen Daten durch Gleichung (5) werden gleichartige Teilbeiträge gemischt, beispielsweise kann der Einzelfehler mit dem Fehler eines Blindversuchs gemischt werden. Andererseits ist es beim statistischen Testen des Modells mit der Monte-Carlo-Methode möglich, so wichtige Eigenschaften des Kalibrierungsgraphen wie das Gesetz (Gesetze) der Fehlerverteilung zu identifizieren und die Konvergenzgeschwindigkeit von zu bewerten Beispielschätzungen zu allgemeinen Schätzungen. Auf Basis von ZNO ist eine solche Analyse nicht möglich.

Beschreibung des Rechenexperiments

Bei der Erstellung eines Simulationsmodells für die Kalibrierung gehen wir davon aus, dass die Kalibrierreihe von Lösungen in Messkolben mit einem Nennvolumen von 50 ml und einem maximalen Fehler von +0,05 ml hergestellt wurde. In eine Reihe von Kolben 1 bis 17 ml Stammstandardlösung mit einem Pipettierfehler von > 1 % geben. Volumenmessfehler wurden gemäß dem Referenzbuch bewertet. Aliquots werden in 1-ml-Schritten zugegeben. Insgesamt umfasst die Serie 17 Lösungen, deren optische Dichte den Bereich von 0,1 bis 1,7 Einheiten abdeckt. Dann ist in Gleichung (2) der Koeffizient k = 5. Der Fehler eines Blindversuchs wird mit 0,01 Einheiten angenommen. optische Dichte. Die Fehler bei der Messung des Transmissionsgrades nach sind nur von der Geräteklasse abhängig und liegen im Bereich von 0,1 bis 0,5 % T.

Zur besseren Bindung der Bedingungen des Rechenexperiments an das Laborexperiment haben wir Daten zur Reproduzierbarkeit von Messungen der optischen Dichte von K2Cr2O7-Lösungen in Gegenwart von 0,05 M H2SO4 auf einem SF-26-Spektrophotometer verwendet. Die Autoren nähern die experimentellen Daten auf dem Intervall A = 0,1 ... 1,5 durch die Parabelgleichung an:

sBOCn*103 = 7,9-3,53 A + 10,3 A2. (acht)

Es ist uns gelungen, die Berechnungen gemäß der theoretischen Gleichung (5) an die Berechnungen gemäß der empirischen Gleichung (8) unter Verwendung des Newtonschen Optimierungsverfahrens anzupassen. Wir fanden heraus, dass Gleichung (5) das Experiment bei s(T) = 0,12 %, s(Abi) = 0,007 und s r(Va) = 1,1 % zufriedenstellend beschreibt.

Die im vorherigen Absatz angegebenen unabhängigen Fehlerschätzungen stimmen gut mit denen überein, die während der Anpassung gefunden wurden. Für Berechnungen nach Gleichung (7) wurde ein Programm in Form eines MS-Excel-Tabellenblatts erstellt. Das wichtigste Merkmal unseres Excel-Programms ist die Verwendung von NORMINV(RAND()), um normalverteilte Fehler zu erzeugen, siehe Gleichung (6). In der Fachliteratur zu statistischen Berechnungen in Excel wird das Hilfsprogramm zur Generierung von Zufallszahlen ausführlich beschrieben, das in vielen Fällen besser durch Funktionen vom Typ NORMINV(RAND()) ersetzt werden sollte. Ein solcher Ersatz ist besonders praktisch, wenn Sie Ihre eigenen Monte-Carlo-Simulationsprogramme erstellen.

Ergebnisse und ihre Diskussion

Bevor wir mit statistischen Tests fortfahren, lassen Sie uns die Beiträge der Terme auf der linken Seite von Gleichung (5) zur gesamten Dispersion der optischen Dichte abschätzen. Dazu wird jeder Term auf die Gesamtvarianz normiert. Die Berechnungen wurden bei s(T) = 0,12 %, s(Aw) = 0,007, Sr(Va) = 1,1 % und s(Vfi) = 0,05 durchgeführt. Die Berechnungsergebnisse sind in Abb. 1 dargestellt. 1. Wir sehen, dass die Beiträge zur Gesamtvarianz der Messfehler Vfl vernachlässigt werden können.

Während die Beiträge eines anderen Wertes Va

dominieren im Bereich optischer Dichten 0,8__1,2. Diese Schlussfolgerung ist jedoch nicht allgemeingültig.

Natur, da bei der Messung auf einem Photometer mit s(T) = 0,5 % die Kalibrierfehler laut Berechnung hauptsächlich durch die Streuung von Ay und die Streuung von T bestimmt werden. 2 vergleicht die relativen Fehler der Messungen der optischen Dichte, die durch das CLN-Verfahren (durchgezogene Linie) und das Monte-Carlo-Verfahren (Icons) vorhergesagt wurden. Bei statistischen Tests die Kurve

Fehler wurden aus 100 Realisierungen der Kalibrierungsabhängigkeit (1700 Werte optischer Dichten) rekonstruiert. Wir sehen, dass beide Vorhersagen miteinander konsistent sind. Die Punkte sind gleichmäßig um die theoretische Kurve gruppiert. Aber selbst mit solch einem ziemlich beeindruckenden statistischen Material wird keine vollständige Konvergenz beobachtet. In jedem Fall erlaubt die Streuung nicht, die ungefähre Natur der STD aufzudecken, siehe die Einleitung.

0 0.4 0.8 1.2 1.6

Reis. 1. Gewichtete Beiträge der Terme von Gleichung (5) zur Varianz A: 1 – für Ay; 2 - für Wah; 3 - für T; 4 - für

Reis. 2. Fehlerkurve der Kalibrierkurve

Aus der Theorie der mathematischen Statistik ist bekannt, dass bei einer Intervallschätzung des mathematischen Erwartungswerts einer Zufallsvariablen die Schätzzuverlässigkeit zunimmt, wenn das Verteilungsgesetz für diese Variable bekannt ist. Außerdem ist bei einer Normalverteilung die Schätzung am effizientesten. Daher ist die Untersuchung des Verteilungsgesetzes von Fehlern in der Kalibrierungskurve eine wichtige Aufgabe. In einer solchen Studie wird zunächst die Hypothese der Normalität der Streuung optischer Dichten an einzelnen Punkten des Graphen getestet.

Eine einfache Möglichkeit, die Haupthypothese zu testen, besteht darin, die Schiefekoeffizienten (a) und Kurtosiskoeffizienten (e) empirischer Verteilungen sowie deren Vergleich mit Kriteriumswerten zu berechnen. Die Verlässlichkeit der statistischen Inferenz steigt mit zunehmender Menge an Stichprobendaten. Auf Abb. 3 zeigt Sequenzen von Koeffizienten für 17 Abschnitte der Kalibrierungsfunktion. Die Koeffizienten werden aus den Ergebnissen von 100 Tests an jedem Punkt berechnet. Die kritischen Werte der Koeffizienten für unser Beispiel sind |a| = 0,72 und |e| = 0,23.

Von Abb. 3 können wir schließen, dass die Streuung der Werte an den Punkten des Diagramms im Allgemeinen nicht der Fall ist

widerspricht der Normalitätshypothese, da die Folgen von Koeffizienten fast keine Vorzugsrichtung haben. Die Koeffizienten sind zufällig in der Nähe der Nulllinie lokalisiert (dargestellt durch die gepunktete Linie). Für eine Normalverteilung ist bekanntlich der Erwartungswert des Schiefekoeffizienten und des Kurtosiskoeffizienten Null. Gemessen an der Tatsache, dass die Asymmetriekoeffizienten für alle Abschnitte deutlich unter dem kritischen Wert liegen, können wir zuversichtlich von der Symmetrie der Verteilung der Kalibrierungsfehler sprechen. Möglicherweise sind die Fehlerverteilungen im Vergleich zur Normalverteilungskurve leicht spitz. Diese Schlussfolgerung folgt aus dem, was in Abb. 3 kleine Stangen

Reis. 3. Kurtosis-Koeffizienten (1) und Schiefe-Koeffizienten (2) an den Punkten der Kalibrierungskurve

lebende Verschiebung der Mittellinie der Streukoeffizienten der Kurtosis. Aus der Untersuchung des Modells der verallgemeinerten Kalibrierungsfunktion der photometrischen Analyse nach der Monte-Carlo-Methode (2) können wir also schließen, dass die Verteilung der Kalibrierungsfehler nahezu normal ist. Daher kann die Berechnung von Konfidenzintervallen für die Ergebnisse der photometrischen Analyse unter Verwendung von Student-Koeffizienten als durchaus gerechtfertigt angesehen werden.

Bei der stochastischen Modellierung wurde die Konvergenzrate der Stichprobenfehlerkurven (siehe Abb. 2) zum mathematischen Erwartungswert der Kurve geschätzt. Für die mathematische Erwartung der Fehlerkurve nehmen wir die aus der ZNO berechnete Kurve. Die Nähe der Ergebnisse statistischer Tests mit einer unterschiedlichen Anzahl von Implementierungen der Kalibrierung n zur theoretischen Kurve wird durch den Unsicherheitskoeffizienten 1 - R2 geschätzt. Dieser Koeffizient charakterisiert den Anteil der Variation in der Stichprobe, der theoretisch nicht beschrieben werden konnte. Wir haben festgestellt, dass die Abhängigkeit des Unsicherheitskoeffizienten von der Anzahl der Implementierungen der Kalibrierfunktion durch die empirische Gleichung I - K2 = -2,3n-1 + 1,6n~/a -0,1 beschrieben werden kann. Aus der Gleichung erhalten wir, dass man bei n = 213 eine fast vollständige Übereinstimmung der theoretischen und empirischen Fehlerkurven erwarten sollte. Daher kann eine konsistente Schätzung der Fehler der photometrischen Analyse nur für ein ziemlich großes statistisches Material erhalten werden.

Betrachten wir die Möglichkeiten der statistischen Prüfmethode, die Ergebnisse der Regressionsanalyse einer Kalibrierkurve vorherzusagen und die Kurve zur Bestimmung der Konzentrationen von photometrischen Lösungen zu verwenden. Dazu wählen wir als Szenario die Messsituation der Routineanalytik. Die Konstruktion des Diagramms erfolgt mit Einzelmessungen der optischen Dichten einer Reihe von Standardlösungen. Die Konzentration der analysierten Lösung ergibt sich aus dem Diagramm gemäß 3-4 Ergebnissen paralleler Messungen. Bei der Auswahl eines Regressionsmodells sollte berücksichtigt werden, dass die Streuung optischer Dichten an verschiedenen Punkten der Kalibrierkurve nicht gleich ist, siehe Gleichung (8). Im Fall von heterokedastischer Streuung wird empfohlen, ein Schema der gewichteten kleinsten Quadrate (LLS) zu verwenden. In der Literatur fanden wir jedoch keine eindeutigen Hinweise darauf, warum das klassische LSM-Schema, dessen Anwendbarkeit unter anderem die Anforderung einer homoskedastischen Ausbreitung ist, weniger bevorzugt wird. Diese Gründe können festgestellt werden, wenn das gleiche statistische Material, das durch die Monte-Carlo-Methode erhalten wurde, gemäß dem Szenario der Routineanalyse mit zwei Versionen der kleinsten Quadrate - klassisch und gewichtet - verarbeitet wird.

Als Ergebnis der Regressionsanalyse von nur einer Implementierung der Kalibrierungsfunktion wurden die folgenden Schätzungen der kleinsten Quadrate erhalten: k = 4,979 mit Bk = 0,023. Bei der Auswertung der gleichen Eigenschaften von HMNC erhalten wir k = 5,000 mit Bk = 0,016. Regressionen wurden unter Verwendung von 17 Standardlösungen wiederhergestellt. Die Konzentrationen in den Kalibrierreihen stiegen in arithmetischer Progression, ebenso gleichmäßig veränderten sich die optischen Dichten im Bereich von 0,1 bis 1,7 Einheiten. Im Fall von HMLC wurden die statistischen Gewichte der Punkte der Kalibrierungskurve unter Verwendung der nach Gleichung (5) berechneten Streuungen gefunden.

Die Varianzen der Schätzungen für beide Methoden sind mit dem Fisher-Test auf einem Signifikanzniveau von 1 % statistisch nicht unterscheidbar. Bei gleichem Signifikanzniveau unterscheidet sich jedoch die LLS-Schätzung von k von der LLS-Schätzung durch das 1j-Kriterium. Die Kleinste-Quadrate-Schätzung des Koeffizienten der Kalibrierungskurve ist relativ zum tatsächlichen Wert von M(k) = 5,000 verzerrt, beurteilt nach dem 1>-Test auf einem Signifikanzniveau von 5 %. Wohingegen die gewichteten kleinsten Quadrate eine Schätzung ergeben, die keinen systematischen Fehler enthält.

Lassen Sie uns nun herausfinden, wie sich die Vernachlässigung der Heteroskedastizität auf die Qualität der chemischen Analyse auswirken kann. Die Tabelle zeigt die Ergebnisse eines Simulationsexperiments zur Analyse von 17 Kontrollproben einer farbigen Substanz mit unterschiedlichen Konzentrationen. Darüber hinaus umfasste jede Analysenserie vier Lösungen, d. h. für jede Probe wurden vier parallele Bestimmungen durchgeführt. Zur Verarbeitung der Ergebnisse wurden zwei verschiedene Kalibrierungsabhängigkeiten verwendet: Eine wurde durch eine einfache Methode der kleinsten Quadrate wiederhergestellt, die zweite durch eine gewichtete. Wir glauben, dass Kontrolllösungen für die Analyse auf genau die gleiche Weise wie Kalibrierlösungen hergestellt wurden.

Aus der Tabelle sehen wir, dass die tatsächlichen Werte der Konzentrationen von Kontrolllösungen sowohl bei HMNC als auch bei MNC die Konfidenzintervalle nicht überschreiten, d. h. die Analyseergebnisse keine signifikanten systematischen Fehler enthalten . Die Grenzfehler beider Methoden unterscheiden sich statistisch nicht, also beide Schätzungen

Der Vergleich der Ergebnisse der Konzentrationsbestimmung hat die gleiche Effizienz. Aus-

Kontrolllösungen durch zwei Methoden, hier können wir schließen, wann

In Routineanalysen ist die Verwendung eines einfachen ungewichteten Kleinste-Quadrate-Schemas durchaus gerechtfertigt. Der Einsatz von WMNC ist vorzuziehen, wenn die Forschungsaufgabe nur darin besteht, die molare Extinktion zu bestimmen. Andererseits ist zu bedenken, dass unsere Schlussfolgerungen statistischer Natur sind. Es ist davon auszugehen, dass mit zunehmender Anzahl von Parallelbestimmungen die Hypothese der unverzerrten Konzentrationsabschätzung nach der Methode der kleinsten Fehlerquadrate nicht bestätigt wird, auch wenn systematische Fehler aus praktischer Sicht unbedeutend sind.

Die von uns gefundene ausreichend hohe Qualität der Analyse basierend auf einem einfachen klassischen Schema der kleinsten Quadrate scheint besonders unerwartet, wenn wir die Tatsache berücksichtigen, dass eine sehr starke Heteroskedastizität im Bereich der optischen Dichte von 0,1 h - 1,7 beobachtet wird. Der Grad der Datenheterogenität kann anhand der Gewichtsfunktion beurteilt werden, die durch das Polynom w = 0,057A2 - 0,193A + 0,173 gut angenähert wird. Aus dieser Gleichung folgt, dass sich die statistischen Gewichte an den Extrempunkten der Kalibrierung um mehr als das 20-fache unterscheiden. Beachten wir jedoch, dass die Kalibrierfunktionen aus 17 Punkten des Diagramms rekonstruiert wurden, während während der Analyse nur 4 parallele Bestimmungen durchgeführt wurden. Daher kann der signifikante Unterschied zwischen den Kleinste-Quadrate- und HLLS-Kalibrierungsfunktionen, die wir gefunden haben, und der unbedeutende Unterschied in den Analyseergebnissen unter Verwendung dieser Funktionen durch die signifikant unterschiedliche Anzahl von Freiheitsgraden erklärt werden, die beim Konstruieren statistischer Schlussfolgerungen verfügbar waren.

Fazit

1. Es wird ein neuer Ansatz für die stochastische Modellierung in der photometrischen Analyse basierend auf der Monte-Carlo-Methode und dem Gesetz der Fehlerakkumulation unter Verwendung einer Excel-Tabelle vorgeschlagen.

2. Basierend auf 100 Implementierungen der Kalibrierungsabhängigkeit wird gezeigt, dass die Vorhersage von Fehlern durch die analytischen und statistischen Methoden miteinander konsistent sind.

3. Die Asymmetrie- und Kurtosis-Koeffizienten entlang der Kalibrierungskurve wurden untersucht. Es wurde herausgefunden, dass die Schwankungen der Kalibrierungsfehler einem Verteilungsgesetz gehorchen, das nahezu normal ist.

4. Der Einfluss der Heteroskedastizität der Streuung optischer Dichten während der Kalibrierung auf die Analysequalität wird berücksichtigt. Es wurde festgestellt, dass in Routineanalysen die Verwendung eines einfachen ungewichteten Kleinste-Quadrate-Schemas nicht zu einer merklichen Verringerung der Genauigkeit der Analyseergebnisse führt.

Literatur

1. Bernstein, I. Ya. Spektralphotometrische Analyse in der organischen Chemie / I.Ya. Bernstein, Yu.L. Kaminski. - L.: Chemie, 1986. - 200 S.

2. Bulatov, M.I. Ein praktischer Leitfaden für photometrische Analysemethoden / M.I. Bulatov, I.P. Kalinkin. - L.: Chemie, 1986. - 432 S.

3. Gmurman, V.E. Wahrscheinlichkeitstheorie und mathematische Statistik / V.E. Gmurman. - M.: Höhere Schule, 1977. - 470 p.

Nr. s", s", gefunden (P = 95%)

n/i gesetzt durch OLS VMNK

1 0,020 0,021±0,002 0,021±0,002

2 0,040 0,041±0,001 0,041±0,001

3 0,060 0,061±0,003 0,061±0,003

4 0,080 0,080±0,004 0,080±0,004

5 0,100 0,098±0,004 0,098±0,004

6 0,120 0,122±0,006 0,121±0,006

7 0,140 0,140±0,006 0,139±0,006

8 0,160 0,163±0,003 0,162±0,003

9 0,180 0,181±0,006 0,180±0,006

10 0,200 0,201±0,002 0,200±0,002

11 0,220 0,219±0,008 0,218±0,008

12 0,240 0,242±0,002 0,241±0,002

13 0,260 0,262±0,008 0,261±0,008

14 0,280 0,281±0,010 0,280±0,010

15 0,300 0,307±0,015 0,306±0,015

16 0,320 0,325±0,013 0,323±0,013

17 0,340 0,340±0,026 0,339±0,026

4. Pravdin, P.V. Laborinstrumente und -geräte aus Glas / P.V. Prawdin. - M.: Chemie, 1988.-336 p.

5. Makarova, N.V. Statistik in Excel / N.V. Makarova, V. Ya. Trofimets. - M.: Finanzen und Statistik, 2002. - 368 p.

VORHERSAGE VON FEHLERN IN DER PHOTOMETRIE MIT ANWENDUNG DES GESETZES DER AKKUMULATION VON FEHLERN UND DER MONTE-CARLO-METHODE

Während des Rechenexperiments wurde in Kombination des Fehlerakkumulationsgesetzes und der Monte-Carlo-Methode der Einfluss von Lösungsfindungsfehlern, Blindversuchsfehlern und optischen Transmissionsmessfehlern auf die messtechnische Leistung der photometrischen Analyse untersucht. Es hat sich gezeigt, dass die Ergebnisse der Vorhersage durch analytische und statistische Methoden widersprüchlich sind. Es hat sich herausgestellt, dass das einzigartige Merkmal der Monte-Carlo-Methode eine Vorhersage des Fehlerakkumulationsgesetzes in der Photometrie ermöglicht. Für die Version der Routineanalyse wurde der Einfluss der Heteroskedastizität der Streuung entlang der Kalibrierkurve auf die Qualitätsanalyse untersucht.

Schlüsselwörter: photometrische Analyse, Fehlerakkumulationsgesetz, Kalibrierkurve, messtechnische Leistung, Monte-Carlo-Methode, stochastische Modellierung.

Golovanov Wladimir Iwanowitsch - Dr. Sc. (Chemie), Professor, Leiter der Unterabteilung für Analytische Chemie, Staatliche Südural-Universität.

Golovanov Vladimir Ivanovich - Doktor der Chemiewissenschaften, Professor, Leiter der Abteilung für Analytische Chemie, Staatliche Südural-Universität.

Email: [E-Mail geschützt]

Danilina Elena Ivanovna - PhD (Chemie), außerordentliche Professorin, Unterabteilung für Analytische Chemie, Staatliche Südural-Universität.

Danilina Elena Ivanovna - PhD (Chemie), außerordentliche Professorin, Abteilung für Analytische Chemie, Staatliche Südural-Universität.