Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Zuverlässige Bauelemente für elektronische Systeme: Fehlerphysik, Ausfallmechanismen, Prüffeldpraxis, Qualitätsüberwachung
Zuverlässige Bauelemente für elektronische Systeme: Fehlerphysik, Ausfallmechanismen, Prüffeldpraxis, Qualitätsüberwachung
Zuverlässige Bauelemente für elektronische Systeme: Fehlerphysik, Ausfallmechanismen, Prüffeldpraxis, Qualitätsüberwachung
eBook1.378 Seiten9 Stunden

Zuverlässige Bauelemente für elektronische Systeme: Fehlerphysik, Ausfallmechanismen, Prüffeldpraxis, Qualitätsüberwachung

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Speicher, Mikroprozessoren, Opto-, MEMS- und NEMS-Bauteile zusammen mit den passiven Komponenten sind das Hauptthema des Buches. Praktische Methoden zur Untersuchung der Zuverlässigkeit sind ergänzt durch umfangreiche Tabellen und veranschaulicht durch zahlreiche Diagramme. Damit erhält der Leser präzise, praxisnah und umfassend sämtliche Zuverlässigkeitsaspekte einfacher und komplexer elektronischer Bauelemente - von der Fehlerphysik über die Prüffeldpraxis und Ausfallmechanismen bis zur Qualitätsüberwachung.
SpracheDeutsch
HerausgeberSpringer Vieweg
Erscheinungsdatum3. Jan. 2020
ISBN9783658221782
Zuverlässige Bauelemente für elektronische Systeme: Fehlerphysik, Ausfallmechanismen, Prüffeldpraxis, Qualitätsüberwachung

Ähnlich wie Zuverlässige Bauelemente für elektronische Systeme

Ähnliche E-Books

Elektrotechnik & Elektronik für Sie

Mehr anzeigen

Ähnliche Artikel

Verwandte Kategorien

Rezensionen für Zuverlässige Bauelemente für elektronische Systeme

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Zuverlässige Bauelemente für elektronische Systeme - Titu-Marius I. Băjenescu

    © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020

    T.-M. BăjenescuZuverlässige Bauelemente für elektronische Systemehttps://doi.org/10.1007/978-3-658-22178-2_1

    1. Einführungskapitel

    Titu-Marius I. Băjenescu¹  

    (1)

    La Conversion, Schweiz

    Titu-Marius I. Băjenescu

    Email: tmbajenesco@gmail.com

    1.1 Definition der Zuverlässigkeit

    Der Begriff Zuverlässigkeit ist zugleich mehrdeutig – im allgemeinen Sinne – aber sehr anspruchsvoll und sinnvoll in der praktischen Anwendung, wenn Gewährleistung von Techniken und Methoden in der Herstellung von zuverlässigen Produkten berücksichtigt werden muss. Zuverlässigkeit – Übersetzung des englischen Wortes Reliability – ist ein relativ neuer Begriff. Er entstammt einem neuen Fachgebiet, das die Qualitätskontrolle ergänzt und der Qualitätslehre angegliedert ist. Einfach ausgedrückt ist die Zuverlässigkeit eines Materials seine Fähigkeit, während der Verwendung nicht auszufallen. Man sagt oft, dass die Zuverlässigkeit die Betriebssicherheit während einer bestimmten Zeit ist. Diese Definition ist aber mangelhaft, weil sie den Faktor Zeit hervorhebt, obwohl sie keine messbare Größe genau bezeichnet.

    Die gebräuchlichsten Zuverlässigkeitskenngrößen sind die Ausfallrate λ(t), also die auf die Zahl der momentanen intakten Elemente N(t) bezogene Menge der pro Zeiteinheit ausfallenden Elemente:

    $$\lambda (t) = - \left[ {dN(t)\text{/}dt} \right]\left[ {1\text{/}N(t)} \right] Z$$

    und der mittlere Ausfallabstand MTBF (Mean Time Between Failures)

    Nach den bisherigen Erfahrungen geht man von einem allgemeinen zeitlichen Verlauf der Ausfallraten elektronischer Bauelemente entsprechend einer „Badewannenkurve" aus.

    Sieht man von dem Bereich der durch Fertigungs- und Inbetriebnahmemängel verursachten erhöhten Anfangsausfallrate ebenso ab wie von dem späteren, bisher nicht beobachteten Ansteigen der Ausfallrate durch Verschleißerscheinungen, so ergibt sich eine zeitlich konstante Ausfallrate.

    Da Zuverlässigkeitsarbeiten zunächst in den USA durchgeführt wurden, übernahm man am Anfang auch die ursprüngliche amerikanische Definition: „Zuverlässigkeit ist die Wahrscheinlichkeit, dass eine Einheit während einer definierten Zeitdauer unter angegebenen Funktions- und Umgebungsbedingungen nicht ausfällt." Die Zuverlässigkeit eines Bauelementes (oder einer Anlage) ist heute definiert [1, 2] als die Fähigkeit einer Betrachtungseinheit, den erwarteten Dienst unter gegebenen Bedingungen während einer gegebenen Zeitdauer und nach definierten Funktionskriterien zu leisten. Da im deutschen Sprachgebrauch eine unmittelbare Zuordnung einer Wahrscheinlichkeit zum Begriff Zuverlässigkeit nicht möglich ist, sollte man die IEC-Definition so ändern [3]: „Ein Maß für die Zuverlässigkeit ist unter anderem die Wahrscheinlichkeit, dass ein System (eine Betrachtungseinheit) unter gegebenen Bedingungen während einer vorgegebenen Zeitdauer zufriedenstellend arbeitet." Nach DIN 40041 ist Zuverlässigkeit die Fähigkeit einer Betrachtungseinheit innerhalb vorgegebener Grenzen den durch den Verwendungszweck bedingten Anforderungen zu genügen, die während einer gegebenen Zeitdauer an das Verhalten ihrer Eigenschaften gestellt werden. Obwohl diese Definition eine informationsreiche Leistungskennziffer darstellt, gibt es jedoch einen Nachteil. Denn wegen der Notwendigkeit, eine bestimmte Operationszeit der Betrachtungseinheit zu spezifizieren, hat die Zuverlässigkeit der Betrachtungseinheit für jedes Zeitintervall einen anderen Wert. Darum ist es äußerst nützlich, andere Leistungskennziffern zu definieren, die – wie wir später sehen werden – nicht von der Funktionszeit abhängig sind, wie etwa der mittlere Ausfallabstand MTBF und die Ausfallrate pro Stunde (λ). Die Angabe einer Ausfallrate für ein bestimmtes Bauelement ist aber wertlos, wenn nicht gleichzeitig die Funktions- und Umgebungsbedingungen genannt werden, auf die sich diese Ausfallrate bezieht.

    Produkte zu verwirklichen, die eine spezifizierte Funktion erfüllen, ist eine alte Forderung. Die Komplexität der Produkte steigt nach und nach, und das Zuverlässigkeitsproblem wird dabei immer komplizierter. Wenn man noch die verschärften Umweltbedingungen, die zeitlich immer kleiner werdenden Entwicklungszyklen und ein längeres ausfallfreies Funktionieren der Komponenten und Systeme hinzufügt, hat man ein beinahe vollständiges Bild der Schwierigkeiten, die praktisch gleichzeitig zu überwinden sind. Im Allgemeinen zeigen Ausfälle drei besonders unangenehme Wirkungen: den Misserfolg, die Gefährdung menschlichen Lebens sowie große Wartungskosten.

    Die geringe Zuverlässigkeit moderner Ausrüstungen ist in erster Linie durch die hohe Komplexität zu erklären. Von AGREE (Advisory Group on the Reliability of Electronic Equipment) durchgeführte Studien ließen erklären, dass die Primärquelle der Ausfälle eng mit der Projektierung, dem Engineering Design verbunden ist. Andere Quellen der Ausfälle sind der Produktion und der Ausrüstungskontrolle zuzuschreiben. Aus diesen Überlegungen folgt: Die Zuverlässigkeit muss als ein Projektierungsparameter betrachtet werden. Das Zuverlässigkeitsprogramm muss die Technologie der Bauelemente, die Fabrikation, die Prüfungen, die Endkontrollen und die Wartungsoperationen einschließen [4–59].

    Obwohl die Zuverlässigkeitsdefinition heute allgemein akzeptiert wird, berücksichtigt sie einen wesentlichen Faktor nicht: das Alter der Ausrüstung. Um ohne Ausfall über eine gewisse Zeitperiode funktionstüchtig zu sein, muss das System zu Beginn der Beobachtungsperiode richtig arbeiten. Die Definition aber macht keinen Unterschied zwischen einem neuen System und einem System, das bereits längere Zeit funktionierte und sogar repariert wurde. Im Allgemeinen kumulieren sich bei neuen Ausrüstungen kleine Schäden und erfordern entsprechend viel Zeit für das Lokalisieren und Ausmerzen, sodass die Ausfallrate während einer bestimmten Anfangsperiode viel größer ist. Später bleibt die Ausfallrate praktisch unverändert. Nun ist aber die Mehrheit der Anwender an der Brauchbarkeitsdauer des Systems interessiert und nicht nur an den ersten hundert Betriebsstunden. Heute kennt man gut eingeführte Verfahren wie das Burn-in, die auf das Ausmerzen der Frühausfälle abzielen.

    Obwohl die Zeit ein Schlüsselparameter der Zuverlässigkeit ist (besonders für elektronische Systeme), sollte man zusätzlich noch zwischen folgenden drei Produktkategorien unterscheiden:

    1.

    Produkte, die kontinuierlich während einer bestimmten Zeitperiode funktionieren müssen – nachrichtentechnische Systeme.

    2.

    Produkte mit Einzelfunktion, die aber vor dem Einsatz getestet werden können – elektronische Ausrüstungen von Weltraumraketen.

    3.

    Produkte mit Einzelfunktion, die aber vor dem Einsatz nicht getestet werden können – Raketenmotoren mit Festkraftstoff.

    Die technischen Daten der Zuverlässigkeit, die auf die obige Definition abstellen, haben für den Anwender nur einen begrenzten Voraussichtswert. Betrachtet wird hierzu beispielsweise die Aussage über die Lebensdauer eines Bauelementes, die vom Hersteller für +20 °C angegeben wird. Je kleiner und kompakter ein Gerät gebaut ist, desto größer wird die Eigenwärme sein, die +70 °C oder mehr erreichen kann. Die Prospekte versichern nun, dass die Bauelemente bei diesen Temperaturen noch funktionieren, sagen aber kein Wort über die Betriebsdauer bei solchen erhöhten Temperaturen.

    Die nähere Bestimmung eines Bauelementes bestimmt nicht dessen Qualität. So müssen anschließend an den eigentlichen Herstellungsprozess auch gewisse Prüfungen durchgeführt werden, die potenziell schwache oder bei vorausgegangenen Kontrollen nicht erfasste Bauelemente ausmerzen.

    An der Zuverlässigkeit wird selten schon im Projektstadium gedacht. Meistens führen erste negative Erfahrungen mit bereits in Betrieb stehenden Ausrüstungen zu Zuverlässigkeitsstudien. Gleichzeitig wurden immer mehr Teilfunktionen in ein Gerät hineingepackt. Das führte zu Entwicklungen, die eine wachsende Zahl von einzelnen Bauelementen enthalten und naturgemäß auch teurer sind als ihre Vorgänger. Der Anwender sieht nun weniger die Vielfalt der möglichen Funktionen, sondern mehr die gestiegenen Kosten und ist enttäuscht und verärgert, wenn das neue teurere Gerät dann häufiger ausfällt. Er erwartet für den höheren Preis auch eine größere Zuverlässigkeit. Dies gelingt nur, wenn dem Gesichtspunkt der Zuverlässigkeit bei der Entwicklung und Fertigung besonders Rechnung getragen wird.

    1.1.1 Gesamtkosten senken

    Eine Steigerung der Zuverlässigkeit verursacht zunächst Kosten (Abb. 1.1).

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig1_HTML.png

    Abb. 1.1

    Faktoren, die die Zuverlässigkeit beeinflussen

    Bessere Bauelemente, die nur unterhalb ihrer Nennbedingungen betrieben werden, sind einzusetzen, und fehlertolerierende Strukturen mit teilweise redundanten Funktionsgruppen sind zu entwickeln. Enorm ist der Aufwand für Prüfungen, um die defekten Teile zu erkennen und auszusondern. So steigen die Herstellungskosten mit zunehmender Zuverlässigkeit. Auf der anderen Seite gewinnt nun der Anwender durch den störungsfreien Betrieb der Geräte und Systeme. Weniger Reparaturen und vor allem weniger Stillstandszeiten mit ihren Folgeschäden fallen an. So sind die Aufwendungen des Betreibers für die Reparatur und den Produktionsausfall umso geringer, je zuverlässiger die Geräte und Systeme sind.

    Es ist üblich, Kosten-Nutzen-Analysen durchzuführen und die gesamte Aufwendung zu optimieren.

    Danach empfiehlt es sich, die Zuverlässigkeit so weit zu treiben, dass die Summe aus den Ausschaffungskosten a) und den Kosten für die Reparatur und den Produktionsausfall b) auf ein Minimum c) gebracht wird (Abb. 1.2).

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig2_HTML.png

    Abb. 1.2

    Zuverlässigere Geräte und Systeme haben höhere Herstellungskosten (a), aber geringere Reparatur- und Ausfallkosten (b), um die Gesamtkosten (c) zu minimieren, sind Einheiten mit verbesserter Zuverlässigkeit erforderlich

    Die digitale Hardware und insbesondere hochintegrierte Bausteine werden aber mit kleineren Strukturgrößen auch zunehmend fehleranfällig. Hochzuverlässige Elektronik muss deshalb Fehler erkennend und meistens auch fehlertolerant ausgelegt werden. Für eine hohe Ausbeute bei der Fertigung, aber auch für einen zuverlässigen Betrieb über lange Zeiten spielen aber zunehmend Techniken der Selbstreparatur (Built-in Self Repair, BISR) eine Rolle.

    1.1.2 Zuverlässigkeit und Sicherheit

    Der Begriff „Sicherheit" ist im Deutschen mehrdeutig. Im englischen Sprachraum gibt es dafür die eindeutigen Entsprechungen „Security" und „Safety", die den Sicherheitsbegriff besser differenzieren.

    So wird ein System im Englischen als sicher im Sinne von „security" bezeichnet, wenn seine Umwelt nur einen streng kontrollierten und überwachten Zugriff auf das System hat. Damit ist also Sicherheit gegen etwas oder gegen jemanden gemeint, beispielsweise gegen ungewünschte Eindringlinge („security" nach [4]: „… freedom or protection from danger or worry; measures taken to prevent from spying, attacks, theft").

    Umgekehrt wird ein System als sicher im Sinne des englischen Begriffs „Safety" bezeichnet, wenn von dem System keine bzw. nur eine vertretbare Gefährdung auf seine Umwelt ausgeht („safety" bedeutet nach [4] „… being safe; not being dangerous or in danger").

    Unter aktiver Sicherheit versteht man Sicherheit im Sinne der Unfallvermeidung. Unter passiver Sicherheit hingegen wird Sicherheit im Sinne einer Abschwächung von Unfallfolgen verstanden.

    Es gibt Prozesse, die – unabhängig von den Kosten – stets innerhalb vorgegebener Grenzen zu halten sind, damit nicht Leib und Leben von Menschen gefährdet werden. So werden beispielsweise in der Verfahrenstechnik zum Teil giftige Stoffe verarbeitet, die nicht entweichen dürfen. Funktionsfähige elektronische Systeme sind für die sichere Landung von Flugzeugen notwendig. Auch die Sicherheit von Massenverkehrsmitteln wird teilweise durch elektronische Signale gewährleistet. Besondere Anstrengungen werden unternommen, um bei einem Störfall ein Kernkraftwerk abzuschalten und die Ausbreitung radioaktiver Stoffe zu verhindern. In diesen Fällen ist die Zuverlässigkeit der elektrischen und elektronischen Einrichtungen eine unabdingbare Voraussetzung – sie ist unter allen Umständen zu gewährleisten.

    1.2 Kurze historische Beschreibung

    Die ersten Zuverlässigkeitsstudien über elektronische Ausrüstungen wurden durchgeführt, um die Luftfahrttechnik und die Fernmeldesysteme der Armee zu verbessern. Die mathematische Formulierung der Zuverlässigkeit und deren Anwendung auf die Prüfung des Materials entstammen Ideen aus der Zeit des Zweiten Weltkrieges [5], wo Wernher von Braun und seine Kollegen an der V1-Rakete arbeiteten. Sie gingen von der Idee aus, dass eine Kette nicht stärker sein kann als ihr schwächstes Glied. Es handelte sich um relativ eine einfache Rakete, und doch gab es einen Misserfolg nach dem anderen – jedes Mal, wenn ein Element ausfiel, obwohl die Einzelteile sorgfältigen Qualitätsprüfungen unterworfen wurden. Die Schwierigkeiten beruhten also weniger auf systematischen Fehlern als auf der Vielzahl der Fehlermöglichkeiten, die sich aus dem Zusammenwirken der zahlreichen Einzelteile ergaben. So gelangten sie von der Vorstellung des schwächten Stellenglieds – offensichtlich falsch – zu der Idee, dass alle Bauelemente bei der Zuverlässigkeitsberechnung eine Rolle spielen müssen.

    Die Zuverlässigkeit der einzelnen Bauteile wird in der Regel durch ihre Ausfallrate charakterisiert, die die Anzahl der Ausfälle pro Zeiteinheit angibt. Der Mathematiker Erich Pieruschka, der um Rat befragt wurde, behauptete – zum ersten Mal und zum Erstaunen mancher Leute – Folgendes: Bezeichnet man die Überlebenswahrscheinlichkeit eines Bauelementes mit 1/x, dann ist 1/xn die Überlebenswahrscheinlichkeit einer Gesamtheit, die aus n identischen Bauelemente besteht. In exponentieller Schreibweise würde also bei konstanter Ausfallrate gelten:

    $$\exp \left( { -\uplambda\,t} \right)$$

    für die Zuverlässigkeit eines Bauelementes, und

    $$\exp \left( { - n\uplambda\,t} \right)$$

    für die Zuverlässigkeit von n Bauelementen.

    Im allgemeinen Fall – in exponentieller Schreibweise oder nicht – bezeichnet man die Zuverlässigkeit eines Bauelementes mit

    $$R = 1\text{/}x$$

    (1.1)

    Die Zuverlässigkeit einer aus n Bauelementen bestehende und in Serie geschaltete Gesamtheit ist dann

    $$R_{s} = R^{n} = 1\text{/}x^{n}$$

    (1.2)

    Demzufolge ist die Zuverlässigkeit einer Serienschaltung von n Bauelementen:

    $$R_{s} = R_{1}^{.} R_{2}^{.} R_{3} \ldots \ldots .R_{n} = \prod\limits_{1}^{n} {R_{i} }$$

    (1.3)

    Diese Gleichung ist als Theorem des Produktes der Zuverlässigkeit bekannt. Man hat also erkannt, dass die Bauelementezuverlässigkeit viel größer sein sollte als die verlangte Zuverlässigkeit des Systems. Deshalb entwickelten sich und fertigte man neue, viel zuverlässigere Bauelemente und erreichte für die V1 schließlich eine Zuverlässigkeit von 75 %.

    Seit dieser Zeit hat die Komplexität – besonders der elektronischen Systeme – immer mehr zugenommen. Aus diesem Grunde müssen sich Ingenieure, wollen sie an der Spitze der neuen Technik bleiben, und Industrielle, wollen sie nicht den Anschluss verpassen, mit dem Zuverlässigkeitsbegriff auseinandersetzen, um neuere Methoden anwenden zu können [6].

    1.3 Qualität und Zuverlässigkeit

    Um von Anfang an Klarheit zu schaffen, wird zwischen diesen beiden so wichtigen Eigenschaften elektronischer Anlagen und ihrer Komponenten unterschieden, obwohl beide untrennbar miteinander verknüpft sind. Die deutsche Gesellschaft für Qualität (DGQ) definiert die Qualität als diejenige Beschaffenheit, die eine Ware oder eine Dienstleistung zur Erfüllung vorgegebener Forderungen geeignet macht. Eine andere Definition sagt, dass Qualität ein Maß dafür ist, inwieweit eine Komponente zum Zeitpunkt der Anlieferung beim Kunden den zugesicherten Eigenschaften entspricht. Die Qualität wird mit der Verarbeitung des Produktes verbunden. Im Folgenden versteht man unter Bauelementezuverlässigkeit den Konformitätsgrad der Spezifikationsklauseln, der die befriedigenden Merkmale bestimmt. Er ist durch den zulässigen Prozentsatz von fehlerhaften Einheiten in einem betrachteten Los charakterisiert. Die Bauelementequalität ist von der Qualität des konstruktiven Entwurfs und von der Qualität der Herstellung bestimmt, unter Berücksichtigung eines möglichst optimalen Kompromisses zwischen Anforderungen und Kosten. Man unterscheidet also zwischen Entwurfsqualität und Fertigungsqualität, auch Qualität der Übereinstimmung genannt.

    Die Nutzungseffektivität von Industriegütern in militärischen Produkten im Vergleich zu militärischen und raumgängigen (Space Grade) elektronischen Komponenten ist in Abb. 1.3a dargestellt [9, 10]. Man sieht, dass der Preis von Industriegütern wesentlich niedriger als militärische und raumgängige elektronische Komponenten ist, während anderer Parameter deutlich höher liegen. Der zweite Trend betrifft die zunehmende Präsenz von neuen Unternehmen aus China und Ländern des südöstlichen Asiens, die Komponenten fragwürdiger Qualität erzeugen. Darum hat das US-Verteidigungsministerium die Verwendung von in China hergestellten elektronischen Komponenten verboten. Die Systemhersteller müssen organisatorische und technische Maßnahmen ergreifen, um zu verhindern, dass Bauelemente von unsachgemäßer Qualität in elektronische Geräte gelangen.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig3a_HTML.png

    Abb. 1.3a

    Nutzungseffektivität der industriellen, militärischen und Raumgrade elektronischer Komponenten in militärischen Produkten

    Die Prüfung von Erzeugnissen soll sicherstellen, dass alle Einheiten den gestellten Anforderungen genügen. Diese Prüfung kann entweder als Vollprüfung oder als Stichprobenprüfung durchgeführt werden. Wenn die Folgekosten, die aus der Verwendung fehlerhafter Einheiten entstehen können, die Prüfkosten wesentlich übersteigen, kann man durch Einsatz von programmierten Prüfautomaten die Sicherheit der Aussage bei einer Vollprüfung höher treiben als bei einer Stichprobenprüfung.

    Man spricht auch von einer Funktionszuverlässigkeit. Da sich ein Funktionsausfall innerhalb eines Zeitraumes aber nie völlig ausschließen lässt, kann man eine fehlerfreie Funktion immer nur mit einer gewissen Wahrscheinlichkeit voraussagen. Die Grundlagen der Zuverlässigkeitstheorie sind deshalb die Wahrscheinlichkeitsrechnung und die Statistik. Dabei ist zu berücksichtigen, dass die Zuverlässigkeit einer Komponente zwar entscheidend von ihrer Herstellung, aber in erheblichem Maße auch von ihrer Anwendung abhängt. Dies ist bedingt durch die Tatsache, dass für die Zuverlässigkeit nicht nur die Anzahl der fehlerhaften Einheiten aus der ersten Serie und deren Steuerungsmerkmale wichtig sind. Man muss auch wissen, wie lange die Anfangsmerkmale bleiben, wie die Streuung zeitlich variiert, wie viel Prozent der Komponenten während der ersten Betriebsstunden ausfallen, wie groß die Ausfallrate während der Brauchbarkeitsdauer ist, wie die Überlebenswahrscheinlichkeitsfunktion aussieht und welche statistische Verteilung schließlich vorliegt. Abb. 1.3b veranschaulicht diese Merkmale.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig3b_HTML.png

    Abb. 1.3b

    Qualitätsmerkmale eines Produktes

    Zuverlässigkeit ist das entscheidende Kriterium für eine Komponente, die alle Qualitätsanforderungen erfüllt hat. Sie sagt aus – durch das Zählen aller Drift- und Vollausfälle –, wie gut die Übereinstimmung von Soll und Ist im Laufe der Zeit erhalten bleibt. Die Zuverlässigkeit kennzeichnet die Leistungsanforderungen und unterstützt so ein Ganzes, das einer bestimmten Aufgabe angepasst ist. Man sollte aber nicht vergessen, dass der Anwender einen wesentlichen Beitrag zur Verlängerung (beziehungsweise zur Verringerung) der Komponentenlebensdauer leisten kann.

    Die Zuverlässigkeit wird mit der Fähigkeit eines Produkts ohne Ausfall und innerhalb der angegebenen Leistungsgrenzen (für eine bestimmte Zeit in seinem Lebenszyklus) assoziiert.

    Früher haben die Systementwickler verschärfte Qualitätskontrollen gefordert, um Gewissheit zu erlangen, dass die Bauelemente die Spezifikationen des Garantiedatenblattes erfüllen. Heute verlangen dieselben Systementwickler beschleunigte Prüfungen, die die Qualitätskontrollen ergänzen, um sicherzugehen, dass die Spezifikationen des Herstellers nicht nur am Anfang bei der Eingangskontrolle, sondern auch und besonders später, nach einer längeren Betriebszeit, erfüllt sind.

    Noch um die Jahrtausendwende standen die Faktoren, die den Verkauf einer Ausrüstung oder einer Anlage beeinflussten, in folgender Relation (Abb. 1.4a): Preis 30 %, Service 30 % und Qualität 40 %. Dieses Verhältnis hat sich heute verändert (Abb. 1.4b), nämlich Preis 25 %, Service 25 %, Qualität 25 % und Zuverlässigkeit 25 %, sodass allein schon Qualität und Zuverlässigkeit zusammen 50 % darstellen.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig4_HTML.png

    Abb. 1.4

    Faktoren, die den Verkauf einer Anlage beeinflussen: a vor 30 Jahren, b heute

    Der wesentliche Unterschied zwischen Qualität und Zuverlässigkeit besteht darin, dass sich eine Qualitätsaussage stets auf einen vorausgegangenen beziehungsweise gegenwärtigen Zustand bezieht, während eine Zuverlässigkeitsaussage das künftige Verhalten eines Objekts voraussagt. Die Qualitätsaussage betrifft also einen Augenblickszustand, während die Zuverlässigkeitsaussage einen Zeitabschnitt umfasst. Die Qualität eines Objekts lässt sich im Allgemeinen anhand einiger ausgewählter Parameter recht exakt feststellen, während die Zuverlässigkeit stets eine statistische oder eine Zufallsgröße ist.

    Die Zuverlässigkeit ist nicht nur eine Zahl (eine Wahrscheinlichkeit) von garantiertem Überleben für eine Ausrüstung oder für ein Bauelement bei gegebenen Betriebsbedingungen. Die Zuverlässigkeit ist eine Technik, die durch Forschungen, Messungen und Wahlen zu chiffrierten Leistungsforderungen führt. Sie stellt diese fest und unterstützt so ein Ganzes, das einer bestimmten Aufgabe angepasst ist.

    1.3.1 Einfluss zwischen Zuverlässigkeit und Technik

    Ausfall und Lebensdauerprobleme beschäftigen die Industrie seit jeher. Ein in der Literatur häufig zitiertes Beispiel sind die Kugellager, deren Lebensdauer zum Albtraum der Fachleute wurde, als sich die Eisenbahnen in vollem Ausbau befanden. Mit der Einführung von Pendelrollenlager hat man die Zuverlässigkeitsprobleme, die Lebensdauerprobleme und die Wartungsprobleme gelöst. Pendelrollenlager nehmen Fluchtungsfehler zwischen Welle und Gehäuse ohne nachteilige Auswirkungen hinsichtlich Reibung und Lebensdauer auf. Sie sind abgedichtet, robust, leistungsfähig, zuverlässig und wartungsfrei. Sie sorgen so für geringe Wartungs- und Materialkosten.

    Das Einführen der industriell genutzten Elektrizität ist ein weiteres gutes Beispiel für die Zuverlässigkeitssorge der Verantwortlichen. Heute noch, nachdem überregionale und internationale energetische Systeme selbstverständlich sind, wendet man oft noch den Parallelbetrieb der Generatoren, Transformatoren und Hochspannungsleitungen sowie der Hochspannungsverbundnetze an, um eine hohe Zuverlässigkeit der elektrischen Energieversorgung zu sichern.

    Nachdem die Fachleute das Beherrschen der festen und terrestrischen Anlagen zum Ziel gesetzt haben, hat das Erscheinen der Aviatik die Zuverlässigkeitsprobleme noch komplexer und schwieriger gemacht. Ein Triebwerksausfall passiert ausgesprochen selten, kann aber vorkommen. Wenn das trotzdem passiert, kann das Flugzeug weitergeflogen werden. Heutige Flugzeugmotoren sind ausgesprochen zuverlässig und sorgen im Alltag nur noch selten für Probleme: Statistisch fällt ein moderner Flugzeugmotor seltener als einmal in 30 Jahren aus. Diese hohe Zuverlässigkeit hat einen historischen Umbruch in der Fliegerei gebracht: Flogen früher auf langen Strecken ausnahmslos Flugzeuge mit mehr als zwei Triebwerken, sind heutzutage große Twinjets die Regel auf der Langstrecke.

    Was die Elektronik betrifft, stellt man seit Jahren eine unveränderliche Tendenz für eine immer größere Integration fest. Statt externer Verbindungen für Hunderte und Tausende von diskreten Bauelementen (Widerstände, Dioden, Transistoren usw.) verwendet man heute immer mehr integrierte Schaltungen (ICs) in großem Ausmaß, was in erster Linie eine bessere Zuverlässigkeit bedeutet.

    Die Bedeutung der modernen Elektronik, der Raketen, der künstlichen Satelliten und der bemannten Raumschifffahrt hat entscheidend zu diesem auffallenden Fortschritt der Zuverlässigkeit in den letzten Jahrzehnten beigetragen. Methoden müssen den neuen Annäherungsformeln, die eine vorgesehene und mathematisch kalkulierte Zuverlässigkeit ermöglichen, Platz machen. Diese Zuverlässigkeit grenzt sehr nahe an die tatsächliche Materialzuverlässigkeit. Wie später zu sehen sein wird, stimmen die abgeschätzten Werte mit den gemessenen Werten der Zuverlässigkeit recht gut überein, vorausgesetzt, dass die Beobachtungszahl entsprechend groß ist.

    Um auch komplexe Systeme mit hinreichender Zuverlässigkeit zu realisieren, genügt es nicht, nur das fertige Produkt zu betrachten. Vielmehr müssen die Prozesse und Abläufe zur Entwicklung eines Gerätes oder Systems selbst erst entwickelt werden. Der Ingenieur muss also nicht nur im Auge haben, was bei der Arbeit eines Entwicklungsteams am Ende herauskommen soll, sondern auch, auf welchem Wege er dieses Ziel unter schwierigen Randbedingungen (Zeitdruck, Kostendruck) sicher erreicht, ohne Abstriche bei der Qualität und Zuverlässigkeit hinzunehmen [11–14].

    1.3.2 Wert der Zuverlässigkeit

    In der Gesamtheit der Merkmale, welche die Qualität eines technischen Systems definiert, hat die Zuverlässigkeit einen zugewiesenen Platz (Abb. 1.5). Dieses Blockschema zeigt die Bezugspunkte zwischen der Zuverlässigkeit und anderen wichtige Größen eines Qualitätssystems.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig5_HTML.png

    Abb. 1.5

    Die Elemente der Qualität eines Systems für ein Langdauerverhalten

    1.3.3 Der Kompromiss Preis-Zuverlässigkeit

    Während jeder Ausarbeitungsphase eines neuen Produktes muss die Zuverlässigkeit mit erster Priorität behandelt werden, selbstverständlich ohne die vorgeschriebenen funktionellen Merkmale der Anlage zu vergessen. Für jedes Projekt sollte man entsprechend der Wichtigkeit Hinweise über die erwartete oder verlangte Zuverlässigkeit der neuen Systeme erarbeiten.

    Leider trifft man noch zu oft technisch hochentwickelte Produkte, die durch das Verwenden ungeeigneter Werkstoffe oder Bauelemente unweigerlich „Schiffbruch" erleiden.

    Ein anderes, gleichermaßen wichtiges Merkmal stellt die Wartbarkeit dar. Zuverlässigkeit und Wartbarkeit sichern das ökonomische Optimum für das Erfüllen einer gegebenen Aufgabe. Im Allgemeinen sucht man den besten Kompromiss Preis-Zuverlässigkeit (Abb. 1.6a).

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig6a_HTML.png

    Abb. 1.6a

    Optimale Zone des besten Preis-Zuverlässigkeits-Kompromisses. a Anschaffungskosten, b Instandhaltungskosten, c Gesamtkosten

    Eine gewisse Gefahr lässt sich beim Einsatz avantgardistischer Bauteile nicht vermeiden. Obwohl solche Bauteile in Bezug auf technische Produktmerkmale gut sind, haben sie aus Zeitgründen noch keine Zuverlässigkeitsbeweise erbracht. Man darf nicht vergessen, dass die Systemzuverlässigkeit von der Bauelementezuverlässigkeit abhängt und dass die Gesamtzuverlässigkeit, als ein Hauptmerkmal jeder Vorrichtung, genau wie deren funktionelle Merkmale betrachtet werden muss.

    1.3.4 Verlässlichkeit (Dependability)

    Verlässlichkeit ist die Systemeigenschaft, die Attribute wie Zuverlässigkeit, Verfügbarkeit, Sicherheit, Vertraulichkeit, Integrität, Wartbarkeit, Überlebensfähigkeit integriert. Verlässlichkeit ist der Sammelbegriff, mit dem man die Verfügbarkeit eines Produkts, einfach oder komplex, beschreibt. Die Faktoren, die Verfügbarkeit eines Produkts beeinflussen, sind die Zuverlässigkeit, die Wartbarkeit, die Konstruktionsmerkmale und die Wartungsunterstützung [29]. Während die technischen Nutzen und die jeweiligen Vorzüge der zuverlässigen Systeme in der Forschung unbestritten sind, sind Investitionen in Zuverlässigkeit oft schwer in der Praxis zu rechtfertigen. Es sei denn, ein System ist für ein Unternehmen absolut entscheidend oder ein Systemausfall kann katastrophale Folgen haben. Wie wichtig zuverlässige und sichere Systeme sind, wird häufig übersehen oder einfach ignoriert. Ein System wird als zuverlässig betrachtet, wenn es die Spezifikation so eng wie möglich befolgt, auch wenn Fehler auftreten. Typische Fehler sind, wenn einige Teile des Systems ausfallen oder wenn sich die Umgebung anders verhält als bisher angenommen. Zuverlässigkeit und Wartbarkeit sind inhärente Leistungsmerkmale der Produktgestaltung. Wartungsunterstützung wirkt sich auf die Verlässlichkeit und spiegelt die Fähigkeit der Instandhaltungsorganisation wider, die Leistungsziele der Systemverfügbarkeit zu erreichen [30].

    Verlässlichkeit ist nur für die allgemeine Beschreibung in nicht quantitativen Begriffen (Abb. 1.6b) verwendet: Verfügbarkeit → Bereitschaft zum richtigen Service, Zuverlässigkeit → Kontinuität des richtigen Service, Sicherheit → Fehlen von katastrophalen Ausfällen, Vertraulichkeit → nicht unbefugte Enthüllung, Integrität → keine undefinierten Zustände oder Zustandsänderungen.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig6b_HTML.png

    Abb. 1.6b

    Konstitutive Teile der Verlässlichkeit

    Zuverlässigkeit wirkt sich auf die Kosten der Produkte und Prozesse aus, sie ist eine inhärente Eigenschaft, die Produktleistung beeinflusst. Ein zuverlässiges Produkt wird durch die Umsetzung der Zuverlässigkeitsdisziplinen in frühen Konzept- und Designphasen des Produktlebenszyklus erreicht, um kostengünstige Produktoperationen zur Verfügung zu stellen. Wie andere Technische und Ingenieurwissenschaften muss Verlässlichkeit verwaltet werden, um hochwertige Produkte an Kunden zu liefern. Im weitesten Sinne spiegelt Verlässlichkeit das Vertrauen der Nutzer darin, dass sich das Produkt zur Zufriedenheit verwenden lässt, dass es die gestellten Anforderungen bzw. Dienste erfüllt und dass die Kosten für Erwerb und Besitz über den gesamten Lebenszyklus minimal sind [29].

    Verlässlichkeit und ihre Komponenten (Zuverlässigkeit, Wartbarkeit, Verfügbarkeit und Sicherheit) müssen von jedem Designer berücksichtigt werden. Verlässlichkeit ist im Zusammenhang mit dem Begriff der Abhängigkeit zu verstehen und ist in Bezug auf ein Ziel zu quantifizieren. Es wird hinsichtlich einer Wahrscheinlichkeit berechnet und durch die Wahl der Architektur und seiner Komponenten erhalten, es kann durch geeignete Versuche oder durch Erfahrung überprüft werden.

    Die Verlässlichkeit wird so oft in Bezug auf die Initialen RAMS (Reliability, Availability, Maintainability, Safety) entworfen: Zuverlässigkeit (Wahrscheinlichkeit, dass das System fehlerfrei im Intervall [0, t] sein wird), Verfügbarkeit (Wahrscheinlichkeit, dass das System zum Zeitpunkt t funktioniert), Wartbarkeit (Wahrscheinlichkeit, dass das System im Intervall [0, t] repariert wird), Sicherheit (Wahrscheinlichkeit, dass ein katastrophales Ereignis vermieden wird).

    1.3.5 Acquisition Reform

    Im Juni 1994 schaffte das Department of Defense (DoD) den Einsatz militärischer Spezifikationen und Standards für Leistungsspezifikationen und kommerzielle Standards DoD Akquisitionen [31]. Folglich im Oktober 1996, MIL-Q-9858, Anforderungen Quality Program und MIL-I-45208 A, Inspektionssystem Voraussetzung, wurden ersatzlos gestrichen. Darüber hinaus werden Auftragnehmer ihre eigenen Methoden zur Qualitätssicherung vorschlagen, wenn angemessen. Die DoD-Politik erlaubt den Einsatz von militärischen Handbüchern nur zur Orientierung.

    Viele professionelle Organisationen (zum Beispiel IEEE, Reliability Society) versuchen, kommerzielle Zuverlässigkeitsdokumente zu erzeugen, die verschwindenden militärischen Standards zu ersetzen [32]. Neben ihnen gibt es eine Reihe von internationalen Normen, hergestellt nach IEC TC-56, einigen NATO-Dokumenten, britischen Dokumennte und kanadischen Dokumenten.

    Zusätzlich zu den Normungsaktivitäten macht Rom Laboratory (U. S.) auch eine Reihe von Forschungen, um die Erwerbsreform umzusetzen. Allerdings gibt es Stimmen, wie diejenige von Demko [33], der bedenkt, dass eine logistische und Zuverlässigkeitskatastrophe möglich ist, weil kommerzielle Teile, Normen und Praxis nicht militärische Anforderungen erfüllen. Zu diesem Zweck wurde das IIT Research Institute of Rome (U. S.) entwickelt, im Juni 1997 SELECT, ein Werkzeug, das den Benutzern erlaubt, die Zuverlässigkeit der Commercial-off-the-Shelf (COTS)-Geräte in rauen Umgebungen [34] zu quantifizieren. Ab April 1994 gibt es eine neue Organisation, die sogenannte GIQLP (Government and Industry Quality Liaison Panel), bestehend aus Behörden, Verbänden und Fachgesellschaften. Ihre Ziele sind: Bereitstellung von Unternehmern mit Anleitung über die Einrichtung eines einheitlichen Qualitätsmanagementsystems in einem Auftragnehmer, das in der Lage ist, die Anforderungen jedes Kunden zu erfüllen sowie Förderung der wirksamen Nutzung fortgeschrittener Praktiken und Förderung von effektiven und effizienten Überwachungsmethoden. GIQLP ist eng involviert in die enormen Veränderungen des Akquisitionsprozesses [35].

    Die Berücksichtigung der Zuverlässigkeit und der Physics of Failure (PoF) ist ein integraler Bestandteil des Designs und des Entwicklungszyklus von allen elektronischen Produkten geworden, ob sie Konsumartikel mit einer Lebensdauer von 18 Monaten oder sicherheitskritische Systeme mit einer Lebensdauer von 30 Jahren sind [41]. Experimentelle und simulationsbasierte Forschung ist daher wichtig, um  PoF-Modelle für Flugzeuge und Automobilelektronik Umweltbedingungen zu schaffen und zu validieren, aus denen beschleunigte Testverfahren entwickelt werden können.

    1.3.6 Standardisierung

    In den letzten Jahren hat sich die Industrie in zunehmendem Maße interessiert ihre wirtschaftliche Effizienz bei der Bewertung zu steigern; dies wurde durch die Erhöhung der Rolle der Standardisierung erhalten werden. Systematische und zuverlässige Ergebnisse lassen sich nur auf einer gemeinsamen Basis erhalten. Weil auf die Industrie Druck ausgeübt wird zu rationalisieren, müssen die Kosten und Nutzen der Standardisierung sowohl in mikro- und makroökonomischer Sicht untersucht werden. Wie erwartet, haben Unternehmensstandards die größte positive Wirkung auf die Unternehmen, weil sie zur Verbesserung der Prozesse beitragen. Wenn es um die Beziehung zwischen Lieferanten und Kunden kommt, werden jedoch Branchenstandards als wichtigste Instrumente verwendet, um Transaktionskosten zu senken und Marktmacht gegenüber Lieferanten und Kunden geltend zu machen.

    Eine Studie des Deutschen Instituts für Normung DIN [35] kam zum Schluss, dass branchenweite Standards nicht nur eine positive Wirkung auf die Wirtschaft als Ganzes, sondern auch Vorteile für das einzelne Unternehmen bieten, die diese als strategische Marktinstrumente verwenden. Zum Beispiel die prioritären Bereiche für CENELEC; die Normungsarbeiten sind diejenigen, die die Sicherheit und den freien Verkehr von Waren und Dienstleistungen erleichtern.

    Bei neuen Arten von elektronischen Komponenten wie mikroelektromechanischen Systemen (MEMS) kann man aus der Halbleiterindustrie Standards und bewährte Erfolgsverfahren und Erfolgsmethoden leihen. In anderen Bereichen jedoch gibt es kein Modell zu emulieren. Doch ob man aus der Halbleiterindustrie Standards übernimmt oder einen Standard von Grund auf neu entwickelt, einige grundlegende Fragen sind weiterhin gültig: Ist die MEMS-Industrie bereit, die Herausforderung anzunehmen, Standards zu entwickeln? Oder soll die Industrie erkennen, dass es unnötig ist? Konnte die Standardisierung gar neue innovative Gerätetechnologien behindern? Da die MEMS-Industrie so vielfältig ist, sind die vom Kunden gelieferten Spezifikationen für jedes Fertigungssegment, insbesondere für die Verpackung, unterschiedlich. Für sie würden Normen ihren Herstellungsprozess vereinfachen, weil sie die einzigartigen Kundenspezifikationen einschränken würden.

    1.4 Wirtschaftliches Optimum

    Man weiß, dass die Verbesserung der Systemzuverlässigkeit zur Senkung der Wartungskosten führt. Nach DIN 40042 definiert man die Wartbarkeit als eine Bewertungsgröße für die Eignung einer Betrachtungseinheit zu ihrer Überwachung, Instandhaltung und Instandsetzung. Eine andere Definition (MIL STD 721C) sagt, dass Wartbarkeit, Projekt- und Anlagegröße sind, ausgedrückt durch die Wahrscheinlichkeit, dass der Ausfall einer Anlage mit gegebenen Mitteln und unter vorgeschriebenen Bedingungen in einer gegebenen Zeit beseitigt werden kann, sodass die Anlage nachher ihre anfängliche Zuverlässigkeit wiedererlangt.

    Schon während der Planung bzw. Konzeption eines neuen Produkts strebt man eine Maximierung der Wahrscheinlichkeit an, um die gestellte Aufgabe im Rahmen vorgegebener Gesamtkosten zu erfüllen, da man im Allgemeinen den besten Kompromiss zwischen Preis und Zuverlässigkeit (Abb. 1.6a) und nicht nur die beste Zuverlässigkeit sucht. Man sieht also, dass sich durch richtige Zielsetzung die Zuverlässigkeit kostensparend auswirkt.

    1.5 Fachausdrücke

    Um Missverständnisse zu vermeiden, muss über die verwendeten Fachausdrücke des Zuverlässigkeitsvokabulars Klarheit herrschen. Am Schluss dieser Arbeit sind deshalb in einem Glossar die meistverwendeten Zuverlässigkeitsausdrücke erklärt. Für jeden Ausdruck wird eine kurze Definition gegeben, selbst dort, wo es zurzeit noch keine allgemeine akzeptierte Definition gibt. Dadurch wird dem Leser die Möglichkeit geboten, im Glossar unbekannte Begriffe nachzuschlagen. In diesem Unterkapitel werden vorerst nur die am häufigsten verwendeten Begriffe erklärt (alle Definitionen sind in CEI 60050-192-2015 zu finden [1]).

    Unter Betrachtungseinheit versteht man eine beliebige Anordnung (Komponente, Baugruppe, System, Gerät, Anlage), die bei Zuverlässigkeitsuntersuchungen als eine in sich geschlossene Einheit angesehen wird. Aus der Zuverlässigkeitsdefinition seien folgende Begriffe in Erinnerung gerufen: die Wahrscheinlichkeit, die zu erfüllenden Anforderungen, die Betriebsbedingungen und die Betriebsdauer.

    Weil die Zuverlässigkeit als „Nichtausfallwahrscheinlichkeit" definiert ist, kann sie durch eine Gleichung oder durch ein mathematisches Modell ausgedrückt werden.

    Im Allgemeinen kann die Zuverlässigkeit als eine Erfolgswahrscheinlichkeit definiert werden. Man nimmt also an, dass die betreffende Betrachtungseinheit während einer bestimmten Zeitdauer keine Ausfälle ausweist. Die genaue Definition für das richtige Funktionieren (oder des Nichtausfalls) ist für jede Zuverlässigkeitsstudie sehr wichtig, weil man die Wahrscheinlichkeit zu bestimmen versucht, mit der eine Betrachtungseinheit eine bestimmte Funktion befriedigend erfüllt. Für kompliziertere Probleme, also dort, wo mehrere Wahrscheinlichkeiten für ein gutes Funktionieren abzuschätzen sind, ist es empfehlenswert, das Anfangsproblem in zwei verschiedene Probleme zu unterteilen und jedes Mal mit Ereignispaaren (wie Erfolg/Misserfolg) zu arbeiten.

    Zur Ergänzung des Begriffs Zuverlässigkeit müssen weitere Ausdrücke eingeführt werden, der Ausfall und der Ausfallabstand.

    Als Ausfall definiert man die Beendigung der Fähigkeit einer Betrachtungseinheit, eine geforderte Funktion auszuführen.

    Der Ausfallabstand ist die Betriebszeit einer reparierbaren Betrachtungseinheit zwischen zwei aufeinanderfolgenden Ausfällen. Bei einer unreparierbaren Betrachtungseinheit bezeichnet man die Dauer bis zum ersten Ausfall als Lebensdauer der betreffenden Betrachtungseinheit.

    Bei Geräten, deren Elemente als einfach in Serie geschaltet betrachtet werden können, wird der mittlere Ausfallabstand durch den Kehrwert der Ausfallrate ermittelt. Wird die Betriebszeit (Missionszeit) gleich dem mittleren Ausfallabstand – Fall der exponentiellen Ausfälle –, so bedeutet das, dass von anfänglich 100 funktionsfähigen Geräten wahrscheinlich nur noch etwa 37 betriebsfähig sein werden (Erwartungswert) – und nicht 50, wie man aus der Angabe eines Mittelwertes irrtümlicherweise annehmen könnte.

    Die Ausfallrate λ(t) ist als Ausfalldichte f(t) definiert, bezogen auf die im betrachteten Augenblick noch brauchbaren Elemente

    $$R(t) = 1{-}F(t),$$

    wobei F(t) die Ausfallwahrscheinlichkeit ausdrückt:

    $$\uplambda(t) = f(t)\text{/}\left[ {1 - F(t)} \right]$$

    für alle $$t\text{ > }0$$ mit $$F(t)\text{ < }1.$$

    Unter gewissen vereinfachenden Bedingungen definiert der Kehrwert der Ausfallrate den mittleren Ausfallabstand MTBF (in Stunden gemessen). Im Allgemeinen unterscheidet man vier Arten von Ausfallraten: beobachtete, geschätzte, extrapolierte und vorausgesagte Ausfallraten.

    Die Ausfälle können wie folgt klassifiziert werden:

    in Abhängigkeit ihrer Erscheinungsgeschwindigkeit

    in Abhängigkeit des Erscheinungsdatums

    Ein zusammenfassendes Schema, welches besonders die gegenseitigen Abhängigkeitsbeziehungen darstellt, ist in Abb. 1.7a wiedergegeben. Abb. 1.7b gibt eine Perspektive auf die Idee der Zuverlässigkeit Wachstum.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig7a_HTML.png

    Abb. 1.7a

    Interdependenzbeziehungen zwischen verschiedenen Zuverlässigkeitsbegriffen

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig7b_HTML.png

    Abb. 1.7b

    Eine Idee des Zuverlässigkeitswachstums

    Die Zuverlässigkeit einer Vorrichtung wird durch eine der beiden folgenden Parameter ausgedrückt: mittlere Betriebszeit zwischen Ausfällen (MTBF) oder Fehler in der Betriebszeit (FIT). Die MTBF ist die mittlere Betriebszeit zwischen Ausfällen für spezifizierte Betriebs- und Umgebungsbedingungen. Die FIT ist die Anzahl der Fehler in 10⁹ h bei spezifizierten Betriebs- und Umgebungsbedingungen.

    1.5.1 Zeitverhalten, Ausfall, Fehler

    Die Eingangskontrolle entscheidet über die Annahme oder Rückweisung eines Loses. Diese Entscheidung hängt von der Streuung eines bestimmten Parameters (beispielsweise Wert eines Widerstandes, Übertragungsfaktor eines Optokopplers oder Reststrom einer Diode) ab. Diese Konformitätseigenschaften der Bauelemente sind nicht zeitabhängig, daher kann man nicht von einem Ausfall des betreffenden Bauelementes sprechen. Nur wenn ein Bauelement, welches bei der Eingangskontrolle als gut befunden wurde, nach einer bestimmten Betriebszeit ausfällt, kann man von einem Ausfall sprechen. Mit anderen Worten: Die Voraussetzung, einen Ausfall festzustellen, ist die zeitliche Änderung eines (oder mehrerer) Parameter, welche direkt mit der Zuverlässigkeit zusammenhängt. Man sieht also, dass die Zuverlässigkeitsmerkmale grundsätzlich mit dem Faktor Zeit verbunden sind. Ein Fehler könnte definiert werden als „Nichterfüllen" der Spezifikationsbedingungen, also ein Resultat eines festgestellten Ausfalles. Die Erscheinungsgeschwindigkeit ist ein qualitativer Begriff, der von der Periodizität der ausgeführten Kontrollen abhängig ist.

    1.5.2 Verallgemeinerte Definition der Ausfallrate und des mittleren Ausfallabstandes MTBF

    Für ein angegebenes Zeitintervall sind die Ausfallwahrscheinlichkeit f(t) und die Zuverlässigkeit R(t) einer Betrachtungseinheit komplementäre Größen. Dies schreibt man wie folgt:

    $$F(t)\text{ + }R(t) = 1\,{\text{oder}}$$

    (1.4)

    $$R(t) = 1 - F(t)$$

    (1.4′)

    Wegen F(t) als Wahrscheinlichkeit ist ihre Ableitung die Häufigkeitsdichte. In diesem Falle ist dies aber die Ausfallwahrscheinlichkeitsdichte:

    $$f(t) = [dF(t)/dt] = - [dR(t)/dt]$$

    (1.5)

    Daher ist die Ausfallwahrscheinlichkeit für das Zeitintervall (0,t):

    $$F(t) = \int\limits_{0}^{t} {f(t)dt.}$$

    (1.6)

    Die Ausfallrate kann von dieser Gleichung abgeleitet werden, indem ein Test betrachtet wird, der zur Zeit t = 0 mit n0 Prüfteile beginnt. Nach einer bestimmten Zeit werden ns Exemplare überleben, das heißt

    $$n_{f} = n_{0} - n_{s}$$

    (1.7)

    sind ausgefallen. Die Ausfallrate ist demzufolge:

    $$dn_{f} \text{/}dt$$

    (1.8)

    Dieses Verhältnis nach Gl. (1.8) kann als die Bauelementezahl, die pro Zeiteinheit ausfällt, interpretiert werden.

    Da ns Prüfteile überlebt haben, ist die Ausfallrate jedes Bauelementes:

    $$\uplambda = (1{/}n_{s} )(dn_{f} /dt)$$

    (1.9)

    Die Zuverlässigkeit zur Zeit t kann als Nichtausfallwahrscheinlichkeit für das Zeitintervall (0, t) ausgedrückt werden. Da von der anfänglichen Anzahl der Prüfteile n0 nur ns überlebt haben, wird die Zuverlässigkeit:

    $$R(t) = (n_{s} \text{/}n_{0} ) = 1 - (n_{f} \text{/}n_{0} )$$

    (1.10)

    Durch Ableiten ergeben sich:

    $$dR(t)\text{/}d(t) = - (1/n_{0} )(dn_{f} /dt)\,{\text{und}}$$

    (1.11)

    $$dn_{f} \text{/}dt = - n_{0} \left[ {dR(t)/dt} \right]$$

    (1.11′)

    Mithilfe der Gln. (1.9) und (1.11ʹ) ergibt sich

    $$\uplambda = 1/n_{s} \left[ { - n_{0} \left[ {dR(t)/dt} \right]} \right]$$

    (1.9′)

    Aber gemäß Gl. (1.10) ist:

    $$R(t) = n_{s}/n_{0}$$

    und dementsprechend λ(t) in s−1:

    $$\uplambda = - \left[ {1/R(t)} \right]\left[ {dR(t)/dt} \right].$$

    (1.9″)

    Diese Bezeichnung gilt allgemein, weil keine Voraussetzungen über die zeitliche Variation von getroffen wurden. Die einzige Einschränkung betrifft R(t) und die Bedingung, dass immer positiv und somit R(t) eine monoton abnehmende Funktion von t sein muss. Durch Integration der Gl. (1.9″) von 0 bis t erhält man:

    $$\int\limits_{0}^{t} {\uplambda\,dt = - \int\limits_{1}^{R} {dR(t)\text{/}R = - log_{e} R(t)} }$$

    (1.12)

    Für t = 0 und R(0) = 1 ergibt sich:

    $$R(t) = \exp ( - \int\limits_{0}^{t} {\uplambda\,dt)}$$

    (1.13)

    Im Allgemeinen ist das Problem in der Elektronik einfacher, weil λ konstant angenommen ist. Folglich ist:

    $$R\left( t \right) = { \exp }( - \lambda t)$$

    (1.13′)

    Und gemäß Gl. (1.5) gilt:

    $$f\left( t \right) = \lambda \,{ \exp }( - \lambda t)$$

    (1.14)

    Man kann ebenso beweisen, dass die Gleichung

    $$R({\text{t}}_{ 1} ,\,\Delta {\text{t}}) = { \exp }( - \lambda \int\limits_{{t_{1} }}^{{t_{2} + \Delta t}} {{\text{d}}t) = { \exp }( - \lambda \Delta t)}$$

    (1.13″)

    gültig ist. Dabei wird ersichtlich, dass das Betriebsalter t1 in Gl. (1.13″) nicht auftaucht, sondern nur das Zeitintervall Δt, gemessen ab einer bestimmten Referenzzeit, zu der das Bauelement noch funktionsfähig war. Stellt jedoch Δt die Dauer einer bestimmten Aufgabe dar, so haben Komponenten verschiedenen Alters die gleiche Zuverlässigkeit für diese Aufgabe.

    Nach der Statistik erhält man den Mittelwert einer gegebenen Verteilung f(t) über das Moment erster Ordnung von f(t), also t. f(t), indem man das Integral von t = 0 bis t berechnet.

    Dies ergibt den MTBF (für reparierbare Systeme) oder die MTTF (für nicht reparierbare Systeme). Der allgemeine Ausdruck für MTBF (respektive MTTF) ist also:

    $$m = \int\limits_{0}^{{\infty }} {t.f(t)dt}$$

    (1.15)

    Mithilfe von Gl. (1.5) kann man schreiben:

    $$m = - \int\limits_{0}^{{\infty }} {t.\left[ {dR(t)\text{/}dt} \right]} dt$$

    (1.15′)

    und erhält durch partielle Integration:

    $$m = - \left[ {t.R(t)} \right]_{0}^{{\infty }} \text{ + }\int\limits_{0}^{{\infty }} {R(t)dt}$$

    (1.15″)

    Für t = 0 ist R(t) = 1; also ist zu diesem Zeitpunkt auch $$t.R(t) = 0$$ .

    Wenn aber t zunimmt, so nimmt $$R(t)$$ ab. Man kann demonstrieren, dass man einen Wert für k finden kann, welcher die Ungleichung

    $$R(t)\text{ &lt; }\exp ( - kt)$$

    (1.16)

    erfüllt.

    Weil aber

    $$\mathop {\lim }\limits_{t \to \infty } \left[ {t.\exp ( - t)} \right] = 0,$$

    (1.17)

    folgt

    $$\mathop {\lim }\limits_{t \to \infty } \left[ {t.R(t)} \right]{ \to }0$$

    (1.17′)

    Man erhält somit einen allgemeinen Ausdruck für m:

    $$m = \int\limits_{0}^{{\infty }} {R(t)dt}$$

    (1.18)

    Wenn λ = konstant ist, ergibt sich:

    $$m = \int\limits_{0}^{{\infty }} {\exp ( - \lambda \,t)dt = 1{/ \lambda }.}$$

    (1.18′)

    Die Gln. (1.9″), (1.13) und (1.18) gelten allgemein für jedes zeitliche Variationsgesetz für λ.

    Die Voraussetzung einer konstanten Ausfallrate ist nur für ein begrenztes Zeitintervall gültig. Außerhalb dieses Zeitintervalls ist die Ausfallrate zeitabhängig, besonders betriebszeitabhängig. Wenn daher die MTBF größer ist als der Betriebszeitraum, für welchen λ als konstant vorausgesetzt werden kann, dann ist die MTBF lediglich als eine Rechengröße zu betrachten, nämlich als Kehrwert der Ausfallrate λ.

    Wird hingegen die MTBF kleiner als die Betriebszeit, dann kann man von den Zuverlässigkeitstests eines Loses von Komponenten sagen, dass eine Komponente den MTBF-Wert (in Stunden) überlebt. Diese Überlebenswahrscheinlichkeit des Loses über den MTBF-Wert hinaus beträgt ungefähr 37 % (Abb. 1.8), weil:

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig8_HTML.png

    Abb. 1.8

    Zuverlässigkeit und Ausfallwahrscheinlichkeit

    $$R\left( {MTBF} \right) = exp\left( { - MTBF/MTBF} \right) = exp\left( { - 1} \right) \approx 0{,}37$$

    (1.19)

    Das bedeutet, dass nach Ablauf einer Prüfzeit von t = MTBF Stunden nur noch etwa 37 % der bei Testbeginn vorhandenen Einheiten funktionstüchtig sind. Diese Erscheinung, die das „Leben" eines Bauelementes streng begrenzt, ist also der Verschleiß (Abb. 1.9). Der Einfluss der Temperatur ist in Abb. 1.10 angegeben.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig9_HTML.png

    Abb. 1.9

    Verlauf der Ausfallrate λ („Badewannenkurve"). 1 Frühausfälle, 2 Zufallausfälle, 3 Verschleißausfälle. Bereich bis t1: Bereich der Frühausfälle. Sie werden hervorgerufen durch versteckte Fehler, die bei der Qualitätskontrolle nicht entdeckt wurden. Frühausfälle können – mit verbesserter Qualitätskontrolle sowie künstlicher Alterung durch längere Probeläufe – wesentlich reduziert werden. Bereich zwischen t1 und t2: Gebiet der statistischen Ausfälle, d. h. rein zufällige Ausfälle. Bereich ab t2: Bereich der Verschleißausfälle

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig10_HTML.png

    Abb. 1.10

    Die Ausfallratenkurve einer großen Komponentenbevölkerung von statistisch gesehen identischen Betrachtungseinheiten für zwei verschiedene Umgebungstemperaturen T2 > T1

    Frühausfälle finden bereits beim Hersteller statt und erreichen den Endkunden gar nicht. Vereinzelt werden Produkte unmittelbar nach ihrer Herstellung Stressfaktoren ausgesetzt, damit möglich viele Frühausfälle noch beim Hersteller stattfinden. Ausfälle, die sich erst nach der Auslieferung an den Endkunden ereignen, werden z. B. in der Automobilindustrie Feldausfälle genannt [11–13].

    Nach dieser ersten Phase tut ein System über lange Zeit mit einer geringen Ausfallrate seinen Dienst. Alterung und Verschleiß sorgen jedoch dafür, dass nach einer zu planenden Betriebsdauer die Ausfälle langsam wieder zunehmen. Es liegt im Ermessen des Herstellers, diese Zunahme z. B. durch Verwendung hochwertiger Bauteile oder Materialien (unter entsprechend höheren Kosten) hinauszuschieben. Die Ausfallrate im Alter steigt oft nicht beliebig lange linear, sondern kann nach Erreichen eines gewissen Wertes etwa konstant bleiben.

    1.6 Mathematische Modelle

    Unter einem Modell wird ein ideell vorgestelltes oder materiell realisiertes System verstanden, das das Forschungsobjekt widerspiegelt oder reproduziert und es so zu vertreten vermag, dass uns sein Studium neue Informationen über dieses Objekt vermittelt. Mathematische Modellierung bedeutet eine reale Fragestellung in der Sprache der Mathematik auszudrücken, um damit in der Lage zu sein, die gegebene Fragestellung mithilfe mathematischer Werkzeuge zu lösen. Die Komplexität der mathematischen Beschreibung sollte sorgfältig abgewägt werden.

    Die in der Praxis (Fall der Bauelemente, Ausrüstungen, Anlagen, Systeme etc.) üblicherweise auftretenden Verteilungen müssen durch sehr einfache Funktionen beschrieben werden, um eine der Mathematik zugängliche Handhabung zu erlauben. Abb. 1.11a zeigt einige Wahrscheinlichkeitsverteilungen, die in den Zuverlässigkeitsrechnungen oft verwendet werden.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig11a_HTML.png

    Abb. 1.11a

    Einige häufiger verwendete Typen von Wahrscheinlichkeitsverteilungen: A Exponentialverteilung, B Gauß'sche Normalverteilung, C Gammaverteilung, D Weibullverteilung

    Unter Verteilungen versteht man die Gesetze, welche die Erscheinungswahrscheinlichkeit einer Zufallsgröße nach bestimmten Regeln oder Gesetzen genau bestimmen. In Abhängigkeit von der Natur der Zufallsgrößen unterscheidet man diskrete und stetige Verteilungen [6].

    Die Exponentialverteilung beschreibt die Bestandsabnahme durch die zufälligen Ausfälle. Die Normalverteilung (Gauß'sche Verteilung) ist als mathematisches Modell nützlich, wenn die Verschleißausfälle überwiegen (Fall der elektronischen Röhren, Elektromotoren, Relais etc.). Die komplizierteren Verteilungen beruhen auf der Gammaverteilung oder auf der Weibullverteilung. Letztere ist besonders vorteilhaft, da sie als besonderen Fall die Exponentialverteilung einbezieht. Schließlich die „Badewannenkurve" (siehe Abschn. 1.8 und Abb. 1.13a), die durch die Summe von drei Weibullverteilungen gut approximiert werden kann [7, 8].

    Von all diesen Lebensdauerverteilungen ist die Exponentialverteilung die zweifellos am meisten verwendete, da sie vom mathematischen Gesichtspunkt gesehen einfach zu handhaben ist und weil die entsprechenden Approximationen bezüglich der Zuverlässigkeit der Bauelemente und Systeme befriedigend sind.

    In der Technik überbrücken Modelle die Lücke zwischen physischer Realität und mathematischer Abstraktion. Sie erlauben die Entwicklung und Anwendung von analytischen Werkzeugen, damit sind sie wesentlich im Design. Die wichtigsten Modelle in Tests sind solche von Störungen. Andere Begriffe, die für Fehlerniveau verwendet werden, sind Ausschussquote und Feldausschussrate. Das Fehlerniveau wird aus den Feldrücksendungen von Daten bestimmt. Nach dem die VLSI-Chips die Produktionsanlage verlassen, können sie fehlschlagen und an den Hersteller zurückgeschickt werden (für eine mögliche Zurückerstattung!).

    Die Tätigkeiten, die auszuführen sind, um zu einem fertigen Modell zu kommen (den Modellierungsprozess), sind in Abb. 1.11b angegeben.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig11b_HTML.png

    Abb. 1.11b

    Schematische Darstellung des Modellierungsprozesses

    1.6.1 Modellierung der IC-Zuverlässigkeit

    Es wird empfohlen, die Ausfallmechanismenmodelle in zwei Schritten zu bewerten: a) Überprüfung der physikalischen Gültigkeit des Modells, b) Anpassung der analytischen Formulierung mit den entsprechenden Parametern des Datenmodells. Der Ausfallprozentsatz von Missbrauch und falscher Handhabung kann über eine große Reichweite (20…80 %) variieren in Abhängigkeit vom Konstrukteur, der das Gerät verwendet, vom Gerätehersteller und Endverbraucher.

    Zunächst standen nur Simulatoren für ein oder zwei Subsysteme oder Ausfallmechanismen zur Verfügung, wie zum Beispiel BERT EM [42] und RELIANT [43], nur um die Elektromigration der Leitbahnen vorherzusagen. Beide Simulatoren verwenden SPICE für die Vorhersage von Elektromigration durch die Stromberechnung. Andere Elektrosimulatoren waren CREST [44], verwendend die Schalterebene zusammen mit der Monte-Carlo-Simulation, ausreichend für die Simulation von VLSI-Schaltungen und SPIDER [45].

    Andere Modelle wurden für Heißträgereffekte gebaut: CAS [46] und RELY [47], basierend auch auf SPICE. Eine wichtige Verbesserung war RELIC, gebaut für drei Ausfallmechanismen: Elektromigration, Heißträgereffekte und zeitabhängigen dielektrischen Durchschlag [48]. Ein Hochebenenzuverlässigkeitssimulator für Elektroausfälle mit dem Namen GRACE [49] versicherte eine höhere Geschwindigkeitssimulation für sehr große ICs. Im Vergleich zu den bisher entwickelten Simulatoren hat GRACE [43] einige Vorteile:

    Eine Größenordnungbeschleunigung ermöglicht die Simulation von vielen VLSI-Eingangsvektoren.

    Das allgemeine Eyring-Modell [50] ermöglicht es, die Alterungssimulation und eventuell das Scheitern der physischen Elemente durch elektrische Spannung zu simulieren.

    Der Simulator lernt, wie man genauer simulieren kann, wenn das Design fortschreitet.

    Die Abb. 1.11c zeigt die Fehlerquellen entlang des Lebenszyklus mikroelektronischer Systeme.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig11c_HTML.png

    Abb. 1.11c

    Fehlerquellen im Lebenszyklus eines mikroelektronischen Systems

    Wenn die typischen Ausfallmechanismen bekannt sind, unter Berücksichtigung der Degradation und Ausfallerscheinungen, können Modelle für die Lebensdauer der Geräte erarbeitet werden. Solche Modelle, im Gegensatz zu den regelmäßigen CAD-Tools, bestimmen nur Verschleißphänomene, sagen also die Ausfälle der frühen Ausfallzone voraus.

    Eine Monte-Carlo-Simulation der Zuverlässigkeit für IC, die die Wirkung von Prozessfehlern, Teststrukturdaten, Maskenlayout und Betriebsumgebungsbedingungen eingliedert, wurde von Moosa und Poole [51] vorgeschlagen. Das Gerät wurde in Subsysteme (Metallisierung, Gateoxid, Drahtverbindungen und Verpackung) unterteilt, die durch verschiedene Fehlermechanismen betroffen sind. Weiterhin wurden diese Systeme in elementare Objekte aufgeteilt (z. B. für die Metallisierung: Metallbahnen, Durchkontaktierungen, Kontakte), die verschiedene Fehlerarten bzw. Mechanismen haben können. Die Zuverlässigkeitsmaßnahmen der Objekte werden, durch beschleunigte Lebensdauertests erhalten, auf spezieller Teststruktur entworfen.

    Anschließend werden die Daten an das Subsystem und die Geräteebene hochgerechnet. Das Simulationsverfahren ist in Abb. 1.11d beschrieben. Dieser Simulator wurde für ein Zweischichtmetallverbindungensubsystem verwendet. Der typische Ausfallmechanismus war Elektromigration. Die Auswirkungen der verschiedenen Korngrößenverteilungen und Defekt (Hohlräume)- Größenverteilungen wurden geprüft und die Ergebnisse (als kumulative Ausfälle im Vergleich zu Systemausfallzeiten gegeben) stimmen gut mit den zuvor berichteten Ergebnissen überein.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig11d_HTML.png

    Abb. 1.11d

    Vorgehensweise für die Monte-Carlo-Simulation der Zuverlässigkeit von ICs (Nach [16])

    Vor einiger Zeit hat das Institut für Umweltwissenschaften (Institute of Environmental Sciences, IES) eine Studie durchgeführt, um festzustellen, welche Reize als die effektivsten angesehen werden. Wie aus Abb. 1.11e ersichtlich, wurden die thermischen Zyklen zitiert als der effektivste Umweltreiz. Diese IES-Grafik (bestätigt auch durch französische ESS Task-Teams) ist heute weithin akzeptiert.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig11e_HTML.png

    Abb. 1.11e

    IES-Übersicht von Screeningwirksamkeit (Nach [51])

    1.6.2 Physics of Failure (PoF)

    Die Physics of Failure, POF (Physik des Scheiterns, des Ausfalls, Defektphysik) ist ein wissenschaftlich orientiertes Konzept für Zuverlässigkeit, das Designzuverlässigkeitsmodellierung und -simulation verwendet. Die Ursachen des Ausfalls sind identifiziert und basierend auf Computer-Aided Design (CAD) wurden Werkzeuge, um verschiedene Fehlermechanismen und Stellen zu adressieren, entwickelt. In den 1970er-Jahren wurde eine Methodik für die Physik des Ausfalls erarbeitet, aber eine Verwendung für Halbleiterbauelemente war nicht möglich bis in die frühen 1990er-Jahre [53]. Der PoF-Ansatz und Design für Zuverlässigkeit (DfR)-Verfahren wurden von CALCE mit der Unterstützung der Industrie, der Regierung und anderen Universitäten entwickelt. PoF ist ein Ansatz, der das Wissen des Produktlebenszyklus und Ausfallmechanismen nutzt, um Zuverlässigkeit zu beurteilen und zu entwerfen. Der Ansatz basiert auf der Identifikation von möglichen Ausfallarten, Ausfallmechanismen und Fehlerstellen für das Produkt als Funktion des Lebenszyklusbelastungsbedingungen des Produkts. Die Spannung bei jeder Fehlerstelle wird als eine Funktion sowohl der Belastungsbedingungen als auch der Produktgeometrie und Materialeigenschaften erhalten (Tab. 1.1a).

    Tab. 1.1a

    Lebenszykluslasten

    Schädigungsmodelle werden dann verwendet, um Fehlererzeugung und -propagieren zu bestimmen. Die PoF-Analyse ist jetzt seit Jahrzehnten im Einsatz und hat zu erheblichen Verbesserungen bei der Zuverlässigkeit der Komponenten und Systemwartbarkeit geführt. Traditionell wurden die PoF-Methoden auf Labortests und physikalische Analyse der Komponenten konzentriert, um zu verstehen, warum sie ausfallen.

    Heute wird der PoF-Ansatz gefordert von:

    Lieferanten – um zu messen, wie gut sie tun, und zu bestimmen, welche Art von Zuverlässigkeitszusicherungen sie an einen Kunden geben können

    Kunden – um zu bestimmen, dass die Lieferanten wissen, was sie tun und was gewünscht wird, liefern. Zusätzlich: Beide Gruppen verwenden PoF, um die Risiken zu bewerten und minimieren

    Dann wurden die wichtigsten Fragen der Physik des Ausfalls als Empfehlungen in militärischen Handbüchern identifiziert und aktualisiert: die Verwendung des Arrhenius-Temperaturmodells, die Modellierung von Verschleißmechanismen und so weiter. Nun ist die Physik des Ausfalls als zentrales Element der Zuverlässigkeitsanalyse etabliert durch Abdecken des Folgenden:

    Ermittlung der Fehlermechanismen, von jeder Charge von Geräten die Verlässlichkeit überprüfen, durch Verwendung von verschiedenen Methoden der Fehleranalyse. Die statistische Aufbereitung der Daten ist nur gültig für eine Bevölkerung, die vom gleichen Fehlermechanismus betroffen ist.

    Suche nach der dominanten Grundursache des Scheiterns in jedem Fall und Ausarbeitung von Korrekturmaßnahmen für Wirkungsverringerung des spezifischen Fehlermechanismus

    Modellierung der Ausfallmechanismen gegen die Zeit und Stress (thermisch, mechanisch etc.) mit dem Ziel, Simulationstools für die Wirkung von Versagensmechanismen und für Geräte sowie Verfahren des beschleunigten Tests zu entwerfen.

    Viele der international führenden Elektronikunternehmen haben nun die traditionellen Methoden der Zuverlässigkeitsprognose aufgegeben. Stattdessen verwenden sie Zuverlässigkeitsbewertungstechniken, die auf der Ursachenanalyse von Ausfallmechanismus, Ausfallarten und Ausfällen, die Spannungen verursachen, beruhen. Dieser Ansatz hat sich bestätigt, in der Prävention, Erkennung und Korrektur wirksam zu sein, in Bezug auf Fehler im Zusammenhang mit Konstruktion, Herstellung und Betrieb eines Produkts. Durch das Verständnis der möglichen Ausfallmechanismen können mögliche Probleme in neuen und bestehenden Technologien identifiziert und gelöst werden, bevor sie auftreten. Mit solchen wissenschaftlich fundierten Zuverlässigkeitstechniken können früh im Designprozess große Kosteneinsparungen in der Fertigung, Prüfung, im Auffang und in der Erhaltung eines neuen Systems erreicht werden. Zusätzlich wird ein PoF-Ansatz erforderlich, um die Zuverlässigkeitsauswirkungen auf die Kosten der Nutzung von kommerziellen und neuen Technologien bei der Systemgestaltung zu bewerten.

    Als Beispiel zeigt das Papier [54], wie PoF-Werkzeuge und Ergebnisse zu nutzen sind, um den Kunden eine Zuverlässigkeitsfunktion zur Verfügung zu stellen, Lebensmarge genannt, basierend auf Anzahlzyklen bis zum Versagen (Cycles to Failure, CTF). Die Methode definiert und berechnet für 99 % der Bevölkerung eine Lebensspanne in den gegebenen ökologischen Lebensbedingungen. Diese Funktion wird verwendet, um die verschiedenen technologischen Möglichkeiten zu bewerten und den besten Kompromiss für die Anforderung des Kunden auf Lebenszeit zu erfüllen. Das Verfahren wurde auf eine bestimmte Karte und für eine bestimmte Anwendung angewendet, in der die Komponente, die Zuverlässigkeit begrenzt, verpackt in einem Ball-Grid-Array (BGA)-Paket identifiziert wurde.

    Die Berücksichtigung der Zuverlässigkeit und der Fehlerphysik (PoF) ist heute integraler Teil des Design- und Entwicklungszyklus aller elektronischen Produkte, unabhängig davon, ob es sich um Gebrauchsgegenstände mit einer Lebensdauer von 18 Monaten oder sicherheitskritische Systeme mit einer Lebensdauer von 30 Jahren handelt [42]. Für die experimentelle und simulationsbasierte Forschung ist es daher wichtig, die PoF-Modelle für Umgebungsbedingungen der Flugzeuge und Automobilelektronik, von denen beschleunigten Testmethoden entwickelt werden können, zu etablieren und zu prüfen.

    Es ist heute allgemein anerkannt, dass die Zuverlässigkeit eines Produkts nicht angemessen bewertet wurde, weil teilweise die Modelle, die zur Vorhersage der Zuverlässigkeit verwendet wurden, seit 1995 nicht mehr aktualisiert wurden. Das MIL-HDBK-217-Dokument selbst räumt ein, dass diejenigen, die die Vorhersage nur als MTBF-Nummer sehen, die einen spezifizierten Wert nicht überschreitet, in der Regel einen Weg finden können, um ihr Ziel - ohne jeglichen Zuverlässigkeitsvorteil auf das System - zu erreichen. Dies unterstreicht die Fähigkeit, die Ausfallrateprognosen zu „frisieren", sodass ähnliche Entwürfe bzw.Produkte deutlich unterschiedliche MTBF-Werte haben können.

    Eine neue Initiative der VME Standards Organisation (VSO) hat die Fragen der Beschaffenheitsanwendung und der veralteten Methoden und Daten in Angriff genommen. Die Initiative wird VITA 51 Reliability Prediction genannt. Zusammenfassend ist zu bemerken, dass geschäftskritische Zuverlässigkeit der COTS- Elektronik nicht durch einen Unfall oder durch die alleinige Nutzung der Zuverlässigkeitsvorhersagemethoden [35] geschieht. Es braucht eine umfassende und konzertierte Anstrengung, das PoF-Verständnis mit diesem neuen Verständnis bei der Validierungsgestaltung zu vereinen, nämlich durch Verlässlichkeit, Schadensanalyse und entsprechende Korrektur. Alles andere sollte nicht für robuste, unternehmenskritische militärische Anwendungen in Betracht gezogen werden.

    Derzeit sind die PoF-Modelle, entwickelt von CALCE EPRC, in der Regel für deterministische Ausführung geeignet. Das Ziel eines neuen CALCE-Projekts [58]: eine tragfähige probabilistische Physik des Ausfallansatzes (Probabilistic Physics of Failure, PPoF) für den Aufbau und die Unterstützung hochzuverlässiger Elektroniksysteme in einer kosteneffektiven Weise zu entwickeln und zu demonstrieren. Darüber hinaus ist ein Fahrplan zu entwickeln, sodass dieser Ansatz in Design und Praktiken umgesetzt werden kann.

    Die wichtigsten Schritte des PPoF-Ansatzes sind [58]:

    Methoden herzustellen, die die Unsicherheiten der wichtigsten Variablen in das PoF-Modell Rechnung tragen

    Empirische Daten aus Verfahrenstechnik, Testprogrammen (Qualifikation und Qualitätskontrolltests) und vom Feld zurückgekehrt, sammeln, die Verteilungen von wichtigen stochastischen Variablen bewerten

    Festlegung von Methoden für die Fehlermechanismen bei verschiedenen Montageebenen probabilistischen Niveaus und Ansammlung

    Entwicklung von Metriken für Wahrscheinlichkeitsschätzungen der Produktstress-Marge

    Ein Managementsystem implementieren, unterstützen und verbessern, das den PPoF Ansatz unterstützt.

    In den letzten Jahren wurden viele Zuverlässigkeitsprognoseverfahren basierend auf PoF vorgeschlagen [56, 57]. Die Fähigkeit zu prognostizieren, die Zuverlässigkeit von ähnlichen Designs zu vergleichen und Designkompromisse zu einzugehen, ist in der Fachliteratur breit diskutiert [58, 59].

    Um zuverlässige kostengünstige Produkte zu entwickeln, die eine Reihe von realistischen Anforderungen zu erfüllen haben, muss ein iterativer Prozess von Systemdesign, Designanalyse und Systemredesign eingeführt werden (Abb. 1.11f).

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig11f_HTML.png

    Abb. 1.11f

    PoF-Designprozess für die Erreichung eines hochzuverlässigen Produkts

    Prognostik und Gesundheitsmanagement (Prognostics and Health Management, PHM) ist eine Methode, die die Beurteilung der Zuverlässigkeit eines Produkts (oder Systems) im Rahmen ihrer tatsächlichen Anwendungsbedingungen ermöglicht. Wenn Modelle mit PoF kombiniert werden, ist es somit möglich, kontinuierlich aktualisierte Vorhersagen zu machen, basierend auf den aktuellen Umwelt- und Betriebsbedingungen. Derzeit auf den Aufbau von physikbasierten Schadensmodellen für Elektronik wurde eine Forschung durchgeführt, die Lebenszyklusdaten vom Produkt und die Beurteilung der Unsicherheit in Restnutzungsdauervorhersage erhalten hat, um die PHM realistischer zu machen.

    1.7 Ausfalltypen

    Eine elektronische Komponente ist in folgenden Zuständen: einem guten Zustand oder einem Fehlerzustand innerhalb der Betriebsumgebung. Ursachen der Bauelementeunzuverlässigkeit sind im Zusammenhang

    mit dem Entwurfsprozess (Designregelverstoß, Konstruktionsfehler durch überbeanspruchte Bauteile, Zeitfehler, Umkehrstrompfad, Dokumentation oder Verfahrensfehler, nicht getestete oder latente Ausfälle),

    mit dem Herstellungsprozess (Arbeitsfehler durch manuelle oder automatische Montage, Nacharbeit, Testfehler und Prüfgerätefehler),

    mit Menschen (falsch kalibrierte Geräte, Bedienerfehler, Wartungsfehler)

    zu finden.

    Man unterscheidet drei große Ausfalltypen (neben den Ausfällen durch Behandlungsfehler bei der Warenbehandlung, bei der Lagerung oder bei nicht sachgemäßer Benutzung): Diese können von Material abhängen und ohne den geringsten Fehler des Anwenders auftreten.

    Der erste Ausfalltyp enthält die Ausfälle, die früh im Leben eines Bauelementes auftreten. Man nennt diese Frühausfälle. Sie sind zum größten Teil durch schlechte Fertigung und durch ungenügende Qualitätskontrolle während der Produktion zu erklären. Man kann die Frühausfälle durch eine systematische Auswahlprüfung der Komponenten ausmerzen.

    Die Verschleißausfälle bilden den zweiten Ausfalltyp, sie sind ein Anzeichen der Alterung der Bauelemente.

    Die zufälligen Ausfälle gehören zum dritten Ausfalltyp, und sie können weder durch Auswahlprüfungen noch durch die beste Wartungspolitik eliminiert werden. Diese Schäden werden durch kurzzeitige Überspannungen verursacht, die die Qualität und die Zuverlässigkeit des Bauelementes stark beeinflussen. Diese Ausfälle treten unregelmäßig, unvorhersehbar, unerwartet, zufällig auf.

    Man sieht also, dass Zuverlässigkeit die Wahrscheinlichkeit von null Ausfällen während einer gegebenen Betriebszeit ist. Im Gegensatz dazu versteht man unter komplementärer Wahrscheinlichkeit das Ausfallrisiko für dieselbe Zeitspanne. Dies ist dann die Ausfallwahrscheinlichkeit.

    Unzuverlässige Bauelemente können zum Ausfall kompletter Systeme führen, was praktisch immer mit dem Verlust von Reputation und Image verbunden ist. Eine Qualifikation liefert Informationen über die Langzeitzuverlässigkeit von Bauteilen unter bestimmten Anwendungsbedingungen. Sie besteht aus einer Charakterisierung, Umweltprüfungen, Verlässlichkeiten und Ausfallanalysen. Sie ist hilfreich bei der Reduktion von Frühausfällen und Feldausfällen und minimiert dadurch die Kosten, die durch Ausfälle verursacht werden. Schwachstellen im Design- und Herstellungsprozess können durch eine Qualifikation frühzeitig entdeckt und eliminiert werden.

    1.7.1 Einteilung der Ausfälle

    Die nützlichsten und häufigsten Einteilungen sind:

    Nach Ursachen

    Ausfälle durch ungeeigneten Einsatz

    Ausfälle durch inhärente Schwächen

    Primärausfälle

    Verschleißausfall

    Nach Erscheinungsgeschwindigkeit

    Sprungausfall

    Driftausfall.

    Nach technischem Umfang

    Gesamtausfall

    Teilausfall

    intermittierender Ausfall

    Nach Ablauf der Änderung und nach Grad

    Katastrophenausfall

    Degradationsausfall

    Abb. 1.12 gibt einen Überblick über die meistverwendeten Einteilungen der Ausfälle. Die Kenntnis der wesentlichen Ausfallmechanismen erleichtert gleichzeitig die Auswahl der besten Bauelemente und ihre korrekte Anwendung und hilft zugleich, die gesamte Zuverlässigkeit zu erhöhen.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig12_HTML.png

    Abb. 1.12

    Gliederung der Ausfälle

    1.8 Badewannenkurve

    Die Voraussetzung einer konstanten Ausfallrate ist nur für ein bestimmtes Zeitintervall gültig. Außerhalb dieses Zeitintervalls steigt die Ausfallrate infolge von Verschleißausfällen sehr rasch an. Dieses Zeitintervall vom Beanspruchungsbeginn bis zum Zeitpunkt des Überschreitens dieser Änderungsgrenze bezeichnet man als Lebensdauer eines Bauelementes. Die grafische Darstellung der Abhängigkeit der Ausfallrate vom Betriebsalter zeigt häufig den in Abb. 1.10 bzw. 1.13a gezeigten charakteristischen Verlauf und wird deshalb scherzhaft „Badewannenkurve" genannt. Aus dieser Kurve (Abb. 1.13a) lässt sich für das Betriebsintervall von t = 0 bis t = t1 eine mit dem Betriebsalter abnehmende Ausfallrate herauslesen. Das ist die Phase der sogenannten Frühausfälle. Ausfälle in dieser Phase werden in der Regel durch Projektierungs-, Konstruktions-, Fertigungs-, Material- oder Montagemängel oder durch Einlaufverhalten von Komponenten hervorgerufen. Bei Inbetriebnahme ist die Ausfallrate zunächst hoch und nimmt mit zunehmendem Betriebsalter ab.

    ../images/464704_1_De_1_Chapter/464704_1_De_1_Fig13a_HTML.png

    Abb. 1.13a

    Ausfallrate, Ausfallhäufigkeitsdichte und Zuverlässigkeit in Abhängigkeit von der Zeit t

    Dieses Verhalten wird bei vielen Produkten beobachtet und auf Herstellungs- oder Materialmängel zurückgeführt. Die Ausfallrate in diesem Bereich lässt sich durch sogenanntes Einbrennen oder Voraltern systematisch senken. Man sollte diese Möglichkeit nicht überbewerten, da es sicherlich Produkte gibt, deren Verhalten während der ersten Betriebsphase anders ist.

    Im Allgemeinen dauert die Frühausfallphase 1…20 Wochen, ist von Beanspruchungsbedingungen abhängig und variiert von Anwendung zu Anwendung, auch für dasselbe Bauelement.

    Der zweite Bereich (t1< t < t2) ist der Bereich der Zufallausfälle mit geringer und im Wesentlichen konstanter Ausfallrate über lange Betriebszeiten.

    Der dritte Bereich (t > t2) ist der Bereich der Verschleißausfälle am Ende der normalen Lebensdauer, verbunden mit einem Anstieg der Ausfallrate. Bei den meisten elektronischen Bauelementen kann man davon ausgehen, dass sie keinem Verschleiß

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1