banner

Blog

May 13, 2023

Ein verallgemeinertes Deep Learning

Wissenschaftliche Berichte Band 13, Artikelnummer: 9079 (2023) Diesen Artikel zitieren

716 Zugriffe

1 Altmetrisch

Details zu den Metriken

Der Einsatz von Ersatzmodellen auf Basis von Convolutional Neural Networks (CNN) nimmt in der Mikrostrukturanalyse und Eigenschaftsvorhersage deutlich zu. Einer der Mängel der bestehenden Modelle ist ihre begrenzte Einspeisung der Materialinformationen. In diesem Zusammenhang wird eine einfache Methode zur Kodierung von Materialeigenschaften in das Mikrostrukturbild entwickelt, sodass das Modell zusätzlich zur Struktur-Eigenschaftsbeziehung auch Materialinformationen lernt. Diese Ideen werden durch die Entwicklung eines CNN-Modells demonstriert, das für faserverstärkte Verbundwerkstoffe mit einem Verhältnis der Elastizitätsmodule der Faser zur Matrix zwischen 5 und 250 und Faservolumenanteilen zwischen 25 und 75 % verwendet werden kann, die sich über die gesamte Länge erstrecken -end praktischer Bereich. Die Lernkonvergenzkurven mit dem mittleren absoluten prozentualen Fehler als interessierender Metrik werden verwendet, um die optimale Anzahl von Trainingsbeispielen zu ermitteln und die Modellleistung zu demonstrieren. Die Allgemeingültigkeit des trainierten Modells wird durch seine Vorhersagen zu völlig unsichtbaren Mikrostrukturen demonstriert, deren Proben aus dem extrapolierten Bereich der Faservolumenanteile und Elastizitätsmodulkontraste entnommen werden. Um die Vorhersagen physikalisch zulässig zu machen, werden Modelle außerdem durch die Durchsetzung von Hashin-Shtrikman-Grenzen trainiert, was zu einer verbesserten Modellleistung im extrapolierten Bereich führte.

Modelle des maschinellen Lernens (ML), insbesondere deren Subdomäne künstliche neuronale Netze (ANN), haben sich als wertvolle Werkzeuge bei der Gestaltung und Analyse von Verbundwerkstoffen erwiesen1,2,3. Zunächst werden diese Modelle entwickelt, indem aus den Datenpunkten gelernt wird, die durch Simulationen generiert oder aus Experimenten gesammelt wurden. Später, während der Bereitstellung, wird dieses Modell verwendet, um Rückschlüsse auf jeden Datenpunkt zu ziehen, der dieselben Merkmale aufweist wie diejenigen, die beim Lernen verwendet wurden. Im Allgemeinen ist der anfängliche Modellentwicklungsprozess mit Rechenkosten (Speicher und Zeit) für die Datengenerierung und das Training des Modells verbunden. Der erwartete Vorteil besteht darin, dass mit dem entwickelten Modell Vorhersagen in deutlich kürzerer Zeit getroffen werden können. Hier hängt die Anzahl der für das Training eines Modells erforderlichen Punkte von mehreren Faktoren ab, wie etwa dem Umfang der Vorkenntnisse über das im Trainingsprozess verwendete System4, der Komplexität der Eingabe-Ausgabe-Beziehung und der erwarteten Genauigkeit des Modells. Die aktive Forschung konzentriert sich auf die Nutzung bekannter Physik, wie z. B. maßgebende oder konstitutive Gleichungen, während des Modelltrainings. In dieser Richtung haben physikinformierte neuronale Netze (PINNs)5,6,7 große Aufmerksamkeit auf sich gezogen, um die PDEs der zugrunde liegenden Physik genau zu lösen. Eine wissensbasierte Stichprobe von Eingaben ist eine weitere Möglichkeit, die Physik des Problems beim Modelltraining zu nutzen8,9. Neben der Vermittlung von Vorwissen spielt die Art der KNN-Architektur eine wesentliche Rolle für effektives und müheloses Lernen. Zu den erfolgreichen ANN-Architekturen gehören: Convolutional Neural Networks (CNN) für Bilddaten, Recurrent Neural Networks (RNN) für sequentielle oder Zeitreihendaten und Generative Adversarial Networks (GAN) zum Erlernen der Verteilung der gegebenen Daten.

Die Bewertung der Eigenschaften von Verbundwerkstoffen ist aufgrund der Heterogenitäten auf verschiedenen Längenskalen und der statistischen Natur der Verteilung und Morphologie der Bestandteile keine triviale Aufgabe. Da die experimentellen Methoden zeitaufwendig und wirtschaftlich kostspieliger sind, werden analytische Lösungen entwickelt, um die Eigenschaften eines äquivalenten hypothetischen homogenen Materials zu ermitteln, das ähnlich wie das Verbundmaterial reagiert. Diese Lösungen werden durch bestimmte Annahmen erhalten und sind daher nur auf einfachere Fälle mit Einschränkungen hinsichtlich der Geometrie und Verteilung der Konstituenten anwendbar. Diese Mängel können durch eine auf der Finite-Elemente-Analyse (FEA) basierende Homogenisierung10,11 behoben werden, bei der mehrere Randwertprobleme auf einem repräsentativen Volumenelement (RVE) unter Verwendung verschiedener Lastfälle gelöst werden. Einige Variationen dieses herkömmlichen FEA-Ansatzes12,13 wurden entwickelt, um die Rechenkosten zu reduzieren. Die auf der Variations-Asymptotischen-Methode (VAM) basierende Homogenisierung beispielsweise liefert eine effektive Materialmatrix mithilfe einer einzelnen Finite-Elemente-Analyse ohne jegliche Nachbearbeitung, im Gegensatz zur Lösung mehrerer Fälle zusammen mit ebenso anspruchsvollen Nachbearbeitungsschritten im herkömmlichen Ansatz. Dennoch sind die erforderliche Rechenzeit und die erforderlichen Ressourcen erheblich genug, um die Suche nach besseren Verbundwerkstoffen zu verlangsamen. Daher wird aktiv daran geforscht, rechnerische Mikromechanik und datengesteuerte Methoden der künstlichen Intelligenz (KI) zu kombinieren, um Ersatzmodelle zu erstellen6,7,14,15,16,17.

CNN-Modelle werden in der Mikromechanik häufig verwendet15,16,18,19,20,21 da Mikrostrukturinformationen im Allgemeinen entweder in Bildform (für 2D) oder in Voxelform (für 3D) verfügbar sind. Der Erfolg der CNN-Architektur gegenüber einfachen künstlichen neuronalen Netzen kann auf ihre Fähigkeit zum Lernen eigener Merkmale und die Nutzung lokaler Konnektivitätsmerkmale unter Verwendung der folgenden zwei Grundannahmen zurückgeführt werden22. Erstens wird davon ausgegangen, dass Merkmale auf niedriger Ebene lokal sind und nicht von räumlich weit entfernten Merkmalen abhängen. Dies wird durch die Verbindung von Downstream-Neuronen mit nur räumlich benachbarten Neuronen im Upstream durch einen Kernel (oder Filter) der Faltungsoperation implementiert. Die zweite Annahme ist, dass ein an einem räumlichen Ort gelerntes Merkmal am anderen Ort nützlich ist. Daher wird an allen Stellen des Bildes der Kernel mit den gleichen Gewichten verwendet. Im Allgemeinen werden CNN-Modelle in zwei Schritten erstellt. Zunächst werden Datenmerkmale durch eine Reihe von Faltungs- und Pooling-Operationen an den Eingabeproben gelernt. Die zweite Stufe enthält ein herkömmliches mehrschichtiges Perzeptron, das die Ausgabe der ersten Stufe als abgeflachte Anordnung aufnimmt. Dichte Verbindungen der letzten Stufe erhöhen die Anzahl der lernbaren Parameter drastisch, was zu höheren Rechenkosten und längeren Trainingszeiten führt. Daher haben Mann und Kaidindi20 ein CNN-Modell entwickelt, bei dem die Ausgabe der ersten Stufe direkt auf Ausgaben abgebildet wird. Außerdem wurde am Ende der ersten Stufe bewiesen, dass die Verwendung eines global gemittelten Poolings anstelle einer einfachen Abflachung die Anzahl der Parameter und die Überanpassung im Modell reduziert18,23. Innovative Architekturen der ersten Stufe haben zu effizienten CNN-Modellen wie AlexNet, VGG und ResNet geführt. Unter diesen wurde das VGG-Modell in vielen mikromechanischen Modellen18,19,24 weithin übernommen, entweder direkt durch Transferlernen oder unter Verwendung seines Prinzips der Stapelung von Faltungsschichten mit verzögerten Pooling-Operationen. Beispielsweise verwendeten Li et al.19 ein beschnittenes VGG-16-Modell zum Erlernen und Rekonstruieren von Mikrostrukturmerkmalen, wobei hochrangige oder von der Eingabeschicht entfernte Schichten entfernt wurden, um den Rechenaufwand zu senken. Wir haben das Arbeitsprinzip dieser einfachen und standardisierten Architektur verwendet, da der Hauptschwerpunkt der vorliegenden Arbeit darin besteht, Datensätze zu entwickeln, die die Materialinformationen kennen, und deren Einfluss auf die Modellleistung zu bewerten. Obwohl CNN-Modelle frei von Feature-Engineering sind, haben einige Modelle gezeigt, dass durch die Bereitstellung modifizierter Eingaben anstelle einfacher Rohbilder die Lernfähigkeit des Modells verbessert werden kann17,20,25. Beispielsweise verwendeten Mann und Kalidindi20 räumliche Zweipunktkorrelationen der Mikrostruktur; Cheng und Wagner17 haben RVE-net entwickelt, das Belastungsbedingungen und parametrisierte Geometrie (durch Level-Set-Felder) als Eingabe verwendet. Da die Erstellung von Etiketten rechenintensiv ist, wurden einige CNN-Modelle entwickelt, die physikalische Informationen nutzen, um Etiketten implizit zu lernen17,26. Li und Chen26 haben das konstitutive Verhalten der hyperelastischen Materialien modelliert, indem sie Gleichgewichtsbedingungen in das CNN-Modell eingebettet haben.

Im Fall von Verbundwerkstoffen ist es wünschenswert, über ein Ersatzmodell zu verfügen, das über umfassendere Bereiche von Faservolumenanteilen (\(V_f\)) und Konstituenteneigenschaften hinweg verwendet werden kann. Die vorhandenen Modelle sind entweder für einen bestimmten Faservolumenanteil oder einen kleinen Bereich von Faservolumenanteilen (weniger als 50 %) und eine bestimmte Faser-Matrix-Materialkombination konzipiert. In dieser Arbeit entwickeln wir ein Modell, das für breitere Bereiche von Faservolumenanteilen \(V_f \in [25\%, 75\%]\) und Faser-Matrix-Elastizitätsmodulkontrast (Verhältnis) \(E_{cr } \in [5, 250]\) und auch die Vorhersagefähigkeiten der trainierten Modelle werden im extrapolierten Bereich von \(V_f \in [10\%, 75\%]\) und \(E_{cr} \ in [5, 500]\). Graustufenbilder der Mikrostruktur liefern die geometrischen Merkmale wie \(V_f\), aber nicht die Materialinformationen. Wenn das Modell also mit unterschiedlichen Materialsystemen arbeiten muss, sollte es lernen, die Materialeigenschaften der Bestandteile zu erkennen. Zu diesem Zweck wird eine einfache und neuartige Methode entwickelt, bei der Materialinformationen als Tensoren höherer Ordnung bereitgestellt werden, die durch Kodierung der Materialeigenschaften jeder Phase in ein Graustufenbild der Mikrostruktur erstellt werden. Eine weitere alternative Möglichkeit zur Aufnahme der konstituierenden Eigenschaften sind multimodale oder gemischte Eingaben. Bei diesem Ansatz können numerische Werte der konstituierenden Eigenschaften nach der Faltungsoperation mit dem abgeflachten Array verkettet werden, wodurch die Codierungsoperation vermieden wird27. Dieser Ansatz erfordert jedoch möglicherweise mehr Proben, um die räumliche Lage der Materialeigenschaften zu erfahren, während die durch direkte Kodierung erstellten Proben über die räumliche Lage des Bestandteils informiert sind. Außerdem wird die physikalische Zulässigkeit der Modellvorhersagen anhand physikbasierter Grenzen beurteilt. Trotz der akzeptablen Leistungsmetriken wird in bestimmten Regionen der Domäne eine erhebliche Anzahl von Ausreißern beobachtet. Diese Ausreißer werden durch das Training der Modelle mit strenger Durchsetzung von Grenzen vollständig eliminiert. Zu diesem Zweck haben wir im Modelltraining die Hashin-Shtrikman-Grenzen28,29 verwendet.

Der Aufsatz ist wie folgt aufgebaut: Zunächst wird die Generierung von Datensätzen mit den Details der Mikrostrukturgenerierung, der Kodierung von Materialeigenschaften und der Etikettenvorbereitung erläutert. Anschließend werden CNN-Modelle erstellt und ihre Leistung anhand der unsichtbaren Stichproben der Trainingsdatensatzdomäne und ihrer extrapolierten Domäne unter Verwendung absoluter prozentualer Fehlerdiagramme untersucht. Letztendlich werden die physikbasierten Grenzen verwendet, um die physikalisch unzulässigen Modellvorhersagen zu quantifizieren und zu eliminieren.

Der Datensatz besteht aus einem Stapel von RVE-Proben, wobei jede Probe das Binärbild des RVE als Eingabe und seine normalisierten transversalen elastischen Eigenschaften als Zielbezeichnungen enthält. Hier ist RVE ein repräsentatives Volumenelement des unidirektionalen Verbundwerkstoffs mit zufällig verteilten Fasern mit kreisförmigem Querschnitt. Sei \({\mathscr {X}}_{bw} \in {\mathbb {R}}^{n_s \times n_w \times n_h \times 1}\) der Eingabeteil des Datensatzes, der \(n_s\ ) Anzahl der RVE-Bilder mit \(n_w\) und \(n_h\) Pixeln entlang der Breite bzw. Höhe. Zusammen mit \({\mathscr {X}}_{bw}\) müssen Materialeigenschaften der Bestandteile angegeben werden, die an ihren jeweiligen räumlichen Positionen in das RVE-Bild codiert werden, wie in der Vorbereitung des Materialinformationsarrays erläutert Abschnitt. Am Ende dieses Vorverarbeitungsschritts erhalten wir einen Tensor höherer Ordnung \({\mathscr {X}} \in {\mathbb {R}}^{n_s \times n_w \times n_h \times n_m}\) enthält \(n_m\) Ebenen für jedes Bild, die verschiedene interessierende Eigenschaften darstellen. Die Eingabe (\({\mathscr {X}}_{bw}\)), Materialinformationsarrays (\({\mathscr {X}}\)) und Beschriftungen (\({\mathscr {Y}}\) ) des Datensatzes sind schematisch in Abb. 1 dargestellt.

Schematische Darstellung von Datensatzelementen, die das RVE-Binärbild (Eingabe in das Modell), Materialinformationsarrays (vorbereitet zu Beginn der Modellinferenz) und transversale elastische Eigenschaften, normalisiert mit dem jeweiligen Matrixmodul (Ausgabe des Modells), zeigen.

Um ein generisches Ersatzmodell zu entwickeln, das auf breitere praktische Anwendungen anwendbar ist, werden Datensätze mit einem breiten Spektrum an Faservolumenanteilen \((V_f \in [25\%, 75\%])\) und konstituierenden Materialeigenschaften erstellt Kontraste (\(E_{cr} = E_f/E_m \in [5, 250]\)). Für ein gegebenes \(V_f\) nehmen die transversalen elastischen Eigenschaften von unidirektionalen Verbundwerkstoffen nach Beobachtungen von Adam und Doner30 bei niedrigerem Faser-Matrix-Elastizitätsmodulkontrast \(E_{cr}=E_f/E_m\) schnell zu und stabilisieren sich dann; Dieses Phänomen wird bei höherem \(V_f\) stärker ausgeprägt. Es wurde festgestellt, dass sich der transversale Elastizitätsmodul bei etwa \(E_{cr}=250\) für \(V_f=75\%\)30 stabilisiert, sodass der Maximalwert \(E_{cr}\) in dieser Studie mit 250 gewählt wurde. Für jedes RVE werden der Faservolumenanteil (\(V_f\)) und die Materialeigenschaften (\(E_f\) und \(E_m\)) zufällig mit gleichmäßiger Wahrscheinlichkeit aus ihrem jeweiligen Bereich gezogen. Wenn die zufällig ausgewählten \(E_f\) und \(E_m\) so sind, dass \(E_{cr}\) außerhalb des Bereichs liegt, wird ein neues Paar gezogen, bis \(E_{cr}\) innerhalb des ausgewählten Bereichs liegt Reichweite. Das Streudiagramm von \(V_f\) und \(E_{cr}\) für 30.000 RVEs ist in Abb. 2a dargestellt. Es ist zu erkennen, dass die Proben gleichmäßig in Bezug auf den Faservolumenanteil verteilt sind, jedoch ungleichmäßig in Bezug auf \(E_{cr}\). Dies ist auf den größeren Bereich von \(E_{f} \in [10 ~\text {GPa}, 500~\text {GPa}]\) im Vergleich zu \(E_{m} \in [1~\text { GPa}, 10~\text {GPa}]\) mit einer Einschränkung auf den \(E_{cr}\)-Bereich. Für ein gegebenes \(V_f\), aus Adam und Doner30 und Abb. 2b, variiert die transversale elastische Eigenschaft schnell bei niedrigerem \(E_{cr}\) und stabilisiert sich bei höherem \(E_{cr}\). Daher gehen wir davon aus, dass kleinere Stichproben im Bereich vernachlässigbarer Eigenschaftsschwankungen nur geringe Auswirkungen auf die Modellleistung haben.

Eigenschaften des Datensatzes \({\mathscr {D}}_1\). (a) Die Verteilung von \(V_f\) und \(E_{cr}\) mit 30.000 RVEs, (b–d) Normalisierte transversale elastische Eigenschaft \({\overline{E}}_{22} = E_{22 }/E_m\) Variation mit \(V_f\) und \(E_{cr}\). Beachten Sie, dass \({\overline{E}}_{22}\) bei niedrigerem \(E_{cr}\) und höherem \(V_f\) schnell variiert, wie durch rote Farbblasen in (c) und (d) angezeigt. .

Der in dieser Arbeit entwickelte Datensatz \({\mathscr {D}}_1\\) enthält 30.000 Stichproben mit der Eingabe \({\mathscr {X}}_{bw} \in {\mathbb {N}}^{ 30.000 \times 256 \times 256 \times 1}\) und Beschriftungen \({\mathscr {Y}}\in {\mathbb {R}}^{30.000 \times 3}\), die in eine 2 aufgeteilt werden :1-Verhältnis für die Trainings- bzw. Testleistung der Modelle. Hier wird die Größe des RVE-Binärbildes (d. h. die Matrix mit 0 und die Faser mit 1 darstellend) nach einer Konvergenzstudie zu \(256 \times 256\) gewählt, wie im nächsten Abschnitt erläutert.

Beachten Sie, dass der Datensatz als Vereinigung von 120 Blöcken konzipiert ist, wobei jeder Block 250 Stichproben enthält und der identischen Verteilung (von \(V_f\) und \(E_{cr}\)) wie der gesamte Datensatz folgt. Dadurch soll die identische Verteilung für die kleineren Datensätze sichergestellt werden, die in Konvergenzstudien zur Ermittlung der optimalen Bildgröße und der optimalen Trainingssatzgröße verwendet werden. In den folgenden Punkten werden die Schritte aufgeführt, die bei der Vorbereitung von Datensätzen erforderlich sind. Die detaillierte Vorgehensweise wird im späteren Teil dieses Abschnitts beschrieben.

Für jedes RVE gilt:

Zeichnen Sie \(V_f\) und \(E_{cr}\) aus dem ausgewählten Bereich;

Generieren Sie RVE für den jeweiligen Faservolumenanteil, \(V_f\);

RVE als Schwarz-Weiß-Binärbild speichern, das eine Matrix mit 0 und eine Faser mit 1 darstellt;

Materialinformationsarrays werden unter Verwendung von Gl. erstellt. (4), vom Binärbild während der Vorhersage;

Die querelastischen Eigenschaften werden mithilfe physikbasierter Simulationen ermittelt und mit ihrem jeweiligen Matrixmodul normiert.

Periodische RVEs von unidirektionalen Verbundmaterialien mit der zufälligen Verteilung kreisförmiger Fasern werden mithilfe eines optimierungsbasierten Algorithmus generiert, der kürzlich von den Autoren entwickelt wurde31. Hier impliziert die Periodizität von RVE, dass eine Faser, die eine oder mehrere Kanten verlässt, von der/den gegenüberliegenden Kante(n) eintreten muss, so dass RVE kontinuierlich ist, wenn es im Raum wiederholt wird, wie in Abb. 3a gezeigt. Eine solche Periodizität ist für die Anwendung periodischer Randbedingungen während der Homogenisierung des RVE zur Bewertung effektiver Eigenschaften erforderlich. Mit diesem Algorithmus generierte RVEs haben mithilfe statistischer und mikromechanischer Analysen die Zufälligkeit der Faserverteilung und der transversalen Isotropie als tatsächliche Mikrostruktur nachgewiesen31. Zunächst werden die Faserquerschnittszentren \(\varvec{x} = (x, y)\) zufällig in der RVE-Domäne \(\Omega\) platziert, wobei Faserüberlappungen zugelassen werden. Anschließend wird ein eingeschränktes Optimierungsproblem gelöst, um die Größe der Faserüberlappung f zu minimieren, wie in Gleichung (1) gezeigt. (1).

Beispielhafte RVE-Binärbilder (a–d) mit einer Auflösung von \(256 \times 256\) bei vier Faservolumenanteilen (\(V_f\)). (a) zeigt die Periodizität der RVEs.

Die Gesamtgröße der Überlappung f und ihr Gradient können explizit ausgewertet werden31, wie in Gl. (2)

Dabei ist \(C_{ij}\) die Größe des Eindringens der i-ten Faser in die j-te Faser, \(\varvec{H}\) die Heavside-Stufenfunktion und \(d_{ij}\) die tatsächliche Der Abstand zwischen den Mittelpunkten der Fasern i und j, \({\overline{d}}_{ij}\) ist der Abstand zwischen den Mittelpunkten der Fasern, wenn sie sich äußerlich berühren, und N ist die Gesamtzahl von Fasern im RVE. Wir haben Julia language32 verwendet, um das Optimierungsproblem Gl. zu lösen. (1). Auf einem Computer mit einem Intel Die Rechenzeit kann aufgrund der stochastischen Natur von \(V_f\) und der Optimierungskonvergenz für jedes RVE leicht variieren. In Abb. 3 sind vier mit diesem Ansatz erstellte Beispiel-RVE-Bilder mit einer Auflösung von \(256 \times 256\) dargestellt.

In diesem Abschnitt wird das Verfahren zum Erstellen von Materialinformationsarrays aus einem RVE-Bild entwickelt. Das Array \({\textbf{I}}^{(g)} \in {\mathbb {R}}^{n_w \times n_h}\) sei ein Graustufenbild von RVE mit \(N_{ph}\) ) Materialphasen, bei denen ein eindeutiger Pixelwert, \(p_i \in [0, 1 ] \subset {\mathbb {R}}\), verwendet wird, um die i-te Phase \(\Omega _i\) für \(i) anzuzeigen = 1,2,...,N_{ph}\). Um Verwechslungen mit der kontinuierlichen Phasenmatrix der Mikrostruktur zu vermeiden, wird der Begriff „Array“ verwendet, um eine mathematische Matrix oder genauer gesagt eine rechteckige Anordnung von Bildpixelwerten zu implizieren.

Wir fahren mit der Konstruktion von \({\textbf{I}}^{(\lambda )}\) fort, mit der gleichen Größe wie \({\textbf{I}}^{(g)}\), aber mit unterschiedlichen Pixelwerten Materialkonstante oder Eigenschaft \(\lambda \in [\lambda _{min}, \lambda _{max}]\). Die Pixelwerte von \({\textbf{I}}^{(\lambda )}\) können mit der Gleichung ausgewertet werden. (3). Dabei müssen die Kriterien für die Wahl der Grenzen \(\lambda _{min}\) und \(\lambda _{max}\) nicht auf der Zulässigkeit der Eigenschaft \(\lambda\) basieren, sondern auf der Wertebereich, der zum Aufbau der Datensätze verwendet wird. Beispielsweise können aus Tabelle 1 die Elastizitätsmodulgrenzen als \(E_{min}=1\) GPa und \(E_{max}=500\) GPa anstelle von \(E>0\) zum Erstellen aller ausgewählt werden Datensätze.

Dabei ist \(\delta (x)\) die Dirac-Deltafunktion mit dem Wert 1 für \(x=0\) und 0 ansonsten. Obwohl Gl. (3) sieht kompliziert aus, es normalisiert einfach die Eigenschaft \(\lambda _i\) der i-ten Phase in Bezug auf ihre Grenzen auf [0, 1].

Im Spezialfall eines zweiphasigen Materials gilt die Gl. (3) kann auf die Gleichung vereinfacht werden. (4). Die Phase \(\Omega _1\) und die Phase \(\Omega _2\) von \({\textbf{I}}^{(g)}\) seien mit den Pixelwerten 0 bzw. 1 dargestellt. Dann ist das gesamte Array \({\textbf{I}}^{(\lambda )}\), das die Informationen \(\lambda _1\) für Phase \(\Omega _1\) und \(\lambda _2\) darstellt. ) für Phase \(\Omega _2\), kann mit der folgenden Gleichung erhalten werden. (4).

wobei \({\textbf{J}} \in {\mathbb {R}}^{n_w \times n_h}\) ein Array aller Einsen ist. Ein Schema des Elastizitätsmodul-Informationsarrays, ausgewertet mit Gl. (4) ist in Abb. 4 dargestellt. Es ist hervorzuheben, dass beim Speichern der Materialinformationsarrays im Bildformat Vorsicht geboten ist. Pixelwerte werden im Allgemeinen als Byte (8 Bit) gespeichert, wobei die ganzzahligen Werte in [0, 255] angenommen werden. Dies kann zu 256 diskreten Unterteilungen im ausgewählten Bereich der Materialeigenschaft statt zu kontinuierlichen Werten führen, da Gleitkommawerte auf Ganzzahlen gerundet werden. Um dieses Problem zu vermeiden, haben wir uns dafür entschieden, Materialinformationsarrays während der Modellvorhersage in der Vorverarbeitungsphase des Modells auszuwerten, wie in Abb. 5 dargestellt, allerdings mit einem leichten Anstieg der Rechenkosten.

Schematische Darstellung der Materialanordnungsvorbereitung von zweiphasigem Material (a) Binärbild, \({\textbf{I}}^{(g)}\), das Matrix- und Fasermaterial bei 0 bzw. 1 zeigt (b ) Elastizitätsmodul-Array, \({\textbf{I}}^{(E)}\), erstellt mit \(E_{Matrix}=10\) GPa, \(E_{Faser}=400\) GPa, \ (E_{min}=1\) GPa und \(E_{max}=500\) GPa.

In der vorliegenden Arbeit wird das Poisson-Verhältnis von Faser und Matrix gleich gewählt, \(\nu _f\) = \(\nu _m\) = 0,25, um die Komplexität der Analyse zu reduzieren. Diese Annahme ist jedoch aufgrund der schwachen Abhängigkeit der Poisson-Verhältnis-Fehlanpassung von den transversalen elastischen Eigenschaften gerechtfertigt33,34. Daher sind die Poisson-Verhältnis-Informationsarrays nicht in der Eingabe enthalten, sodass jede Probe nur das Elastizitätsmodul-Informationsarray enthält.

Zielwerte der Datensätze enthalten die querelastischen Eigenschaften \({\overline{E}}_{22}, {\overline{E}}_{33}\) und \({\overline{G}}_{ 23}\), normiert mit dem jeweiligen Matrixmodul. Da die Anzahl der RVEs (30.000) relativ größer ist, wird in dieser Arbeit eine recheneffiziente Homogenisierungstechnik basierend auf der Variations-Asymptotik-Methode (VAM)13 verwendet. Bei diesem Ansatz kann die gesamte effektive elastische Matrix \({\overline{D}}\) mithilfe einer einzigen Simulation unter Verwendung der Gleichung ausgewertet werden. (5a)13,35,36

wobei \(\Omega\) das Volumen der RVE-Domäne ist; D ist die Materialsteifigkeitsmatrix der jeweiligen Phase mit der Größe \(p \times p\); B ist eine Dehnungs-Verschiebungs-Matrix und \(n_a\) ist die Anzahl der gesamten aktiven Freiheitsgrade (d. h. ohne die abhängigen Freiheitsgrade aufgrund periodischer Randbedingungen). Es wird ein Homogenisierungstool entwickelt, das in der Sprache Julia32 geschrieben ist, um die in Gl. gezeigte effektive Materialmatrix \({\overline{D}}\) auszuwerten. (5). Beachten Sie, dass die VAM-basierte Homogenisierung auch FEA zur Bewertung der Terme in Gl. verwendet. (5b), wodurch es in der Lage ist, die RVE-Morphologie zu erfassen und die hohe Genauigkeit der Lösungen sicherzustellen. Im Gegensatz zu den herkömmlichen FEA-basierten Implementierungen10,11, bei denen man so viele Randwertprobleme (BVP) und Nachbearbeitungsschritte lösen muss wie die Anzahl der Materialmatrixspalten, ergibt die VAM-basierte Homogenisierung \({\overline{D }}\) mit einer einzigen BVP-Lösung. Beispielsweise dauerte die zweidimensionale Homogenisierung von 20 RVEs mithilfe der ebenen Dehnungsanalyse auf einem Computer mit einem Intel Wird geladen. Dieser Rechenzeitgewinn wird bei der dreidimensionalen Homogenisierung noch deutlicher.

Erzeugte RVEs werden mit einer perfekten Schnittstelle zwischen der Faser und der Matrix modelliert. Anschließend wird mit der Open-Source-Software gmsh37 das periodische Netz generiert, das zum Anwenden periodischer Randbedingungen (PBC) mit Ebenendehnungselementen erforderlich ist. Dann ist Gl. (5) wird verwendet, um die transversal wirksame Materialmatrix \({\overline{D}}\) zu ermitteln. Eine Netzkonvergenzstudie, die bei vier Kombinationen der Extremwerte der Bereiche \(V_f \in [25\%, 75\%]\) und \(E_{cr} \in [5, 250]\) durchgeführt wurde, hat gezeigt, dass die Konvergenz der transversalen elastischen Eigenschaften bei etwa 50–60.000 Elementen. Das Netz enthält einen großen Anteil viereckiger Elemente und einen kleineren Anteil dreieckiger Elemente (\(<2\%\)). Als nächstes wird die optimale RVE-Größe (das Verhältnis der RVE-Seitenlänge zum Faserradius) nach einer weiteren Konvergenzstudie der transversalen elastischen Eigenschaften durch Variation der RVE-Größe zu 30 bestimmt.

In diesem Abschnitt wird ein von der VGG-Architektur38 inspiriertes CNN-Modell entworfen und unter Verwendung des Datensatzes \({\mathscr {D}}_1\) trainiert. Der Datensatz wird im Verhältnis 2:1 für das Modelltraining bzw. -tests aufgeteilt. Zunächst wird eine Konvergenzstudie über die Pixelgrößen 32, 64, 128, 256, 512 durchgeführt, um die optimale RVE-Bildgröße zu ermitteln. Anschließend werden CNN-Modelle erstellt und mit den verschiedenen Trainingssatzgrößen trainiert, um den Einfluss der Datensatzgröße auf die Modellleistung zu verstehen. Es wird beobachtet, dass die Modellleistung bei einer bestimmten Trainingssatzgröße konvergiert, jenseits dieser Größe ist der Leistungsgewinn im Vergleich zum Rechenaufwand unbedeutend. Später wird die Leistung des Modells im Hinblick auf den Faservolumenanteil und den Elastizitätsmodulkontrast bewertet. Die Vorhersagefähigkeit des trainierten Modells wird im extrapolierten (oder unsichtbaren) Bereich untersucht. Schließlich werden die physikbasierten Hashin-Shtrikman-Grenzen verwendet, um die Vorhersagen zu quantifizieren und zu eliminieren, die außerhalb dieser Grenzen liegen.

In Ref.38 haben Simonyan und Zisserman eine höhere Effizienz bei tieferen Netzwerken gezeigt, bei denen eine kleine Kernelgröße (\(3 \times 3\)) in Verbindung mit einem verzögerten Pooling-Vorgang verwendet wird. Die CNN-Architekturen mit dieser Idee, bekannt als VGG CNN, wurden in verschiedenen Bereichen umfassend genutzt, darunter auch in einigen mikrostrukturellen Anwendungen18,19,24. Der Vorteil der Verwendung einer kleineren Kernelgröße mit größerer Tiefe (oder mehr Schichten) gegenüber einer großen Kernelgröße besteht darin, dass die Anzahl der Trainingsparameter reduziert und wahrscheinlich die Lernfähigkeit verbessert wird, da die nichtlineare Aktivierungsfunktion in der Tiefe öfter angewendet wird. Außerdem minimiert der verzögerte Pooling-Vorgang den Informationsverlust. Daher haben wir in der vorliegenden Arbeit die VGG-Art der CNN-Architektur zum Aufbau des Modells übernommen, wie in Abb. 5 gezeigt. In allen Faltungsschichten sind Kernelgröße und Schrittweite auf (3, 3) und (1, 1) festgelegt ), während die Anzahl der Filter für jede Faltungsoperation in Abb. 5 dargestellt ist. Nach einer Vergleichsstudie mit maximalem Pooling-Vorgang wird das durchschnittliche Pooling mit einer Größe von (2, 2) und einem Schritt von (2, 2) ausgewählt. Aktivierungsfunktionen sind wesentliche Elemente im Deep-Learning-Modell, um Nichtlinearität zu erreichen. Daher wird nach jeder Faltungsschicht eine Aktivierung der gleichgerichteten linearen Einheit (Relu) angewendet. Da das Modell darauf ausgelegt ist, kontinuierliche reale Werte vorherzusagen, wird auf der Ausgabeebene eine lineare Aktivierung (oder keine Aktivierung) verwendet. Beachten Sie, dass die Datensätze zu groß sind, um in den Speicher zu passen. Daher werden die Proben in Stapeln mit der Größe \(n_{bs}=64\) bereitgestellt. Modellparameter werden nach jedem Durchgang eines Stapels, einer sogenannten Iteration, aktualisiert. Eine Epoche umfasst alle derartigen Iterationen, in denen die vollständigen Trainingsdaten durch das Modell gesendet werden. Um die Modelle vergleichen zu können, ist die Anzahl der Epochen in dieser Arbeit auf 200 festgelegt. Die Abweichung der Modellvorhersagen (\({\mathscr {Y}}^{(p)}\)) von den Grundwahrheitswerten (\({\mathscr {Y}}^{(t)}\)) von Alle Proben in einer Charge werden mithilfe der Verlustfunktion des mittleren quadratischen Fehlers (MSE) quantifiziert, wie in Gleichung gezeigt. (6).

wobei \(y_{ij}^{(t)}\) und \(y_{ij}^{(p)}\) wahre und vorhergesagte Eigenschaften einer Stichprobe sind. Anschließend wird der Adam-Optimierungsalgorithmus39 mit einer Lernrate von 0,001 verwendet, um die Modellgewichte so zu aktualisieren, dass die MSE minimiert wird. Diese Schritte werden mithilfe von PyTorch40, einer Open-Source-Deep-Learning-Bibliothek mit der Python-Programmierschnittstelle, zum Erstellen und Trainieren des CNN-Modells implementiert. Das Training eines Modells mit den oben genannten Hyperparametern und zehntausend Samples dauerte etwa 80 Minuten auf einer Maschine mit 32 GB RAM, 3,7-GHz-Prozessor und 8 GB NVIDIA GPU RTX-3050.

Schematische Darstellung des CNN-Modells. Hier ist \(n_{bs}\) die Chargengröße und \(n_m\) die Anzahl der Materialinformations-Arrays (jedes mit \(n_w\) Zeilen und \(n_h\) Spalten), \({\ mathscr {Y}}^{(t)}\) und \({\mathscr {Y}}^{(p)}\) sind wahre und vorhergesagte Werte.

Der Rechenaufwand für das Modelltraining und die Inferenz steht in direktem Zusammenhang mit der Bildgröße. Während eine geringere Bildgröße zu einem geringeren Rechenaufwand führt, könnte ein gieriges Downsampling des Bildes die Mikrostrukturdetails erheblich verändern. Daher bestimmen wir in diesem Abschnitt die geeignete RVE-Bildgröße (also die von Materialinformationsarrays), indem wir ihren Einfluss auf die Modellleistung bewerten. Wenn die Auflösung des Bildes geringer wird, können mikrostrukturelle Informationen aufgrund der Pixelierung verloren gehen. Beispielsweise ist der RVE einer Probe mit einem Faservolumenanteil von \(54,7\%\) in Abb. 6a bzw. b mit einer Auflösung von \(128 \times 128\) und \(512 \times 512\) dargestellt.

Optimale Auswahl der RVE-Bildgröße. (a) und (b) zeigen ein Beispiel-RVE-Bild mit 128 bzw. 512 Pixeln pro Seite, wobei die RVE-Seitenlänge das 30-fache des Faserradius beträgt; (c) Absolute prozentuale Abweichung des RVE-Bildes \(V_f\) vom wahren \(V_f\) bei verschiedenen Auflösungen; (d) Variation des mittleren absoluten prozentualen Fehlers (MAPE) mit der Bildauflösung.

Es ist zu erkennen, dass mit \(128 \times 128\) die Matrix zwischen zwei Faseroberflächen durch Fasermaterial ersetzt wird und das glatte Profil des Faserquerschnitts grober geworden ist. In dieser Studie betrachten wir fünf verschiedene Auflösungen (\(32 \times 32\), \(64 \times 64\), \(128 \times 128\), \(256 \times 256\) und \(512 \ mal 512\)), um den Informationsverlust und seinen Einfluss auf das Modelltraining zu verstehen. Zunächst wird die absolute prozentuale Abweichung (APD) des Faservolumenanteils aufgrund der Pixelierung des Bildes mithilfe der Gleichung quantifiziert. (7) und in Abb. 6c dargestellt. Hier wird \(V_f^{(image)}\) als Bruchteil der weißen Pixel (die Fasern darstellen) im RVE-Bild ausgewertet. Es zeigt, dass beispielsweise das Speichern eines RVE mit einer Auflösung von \(64 \times 64\) zu einer Abweichung von etwa 2–4 ​​% in \(V_f^{(true)}\) führen würde, wenn \(V_f^{(true) }\) liegt nahe bei 75 %. Es wurde festgestellt, dass diese Abweichung durch eine Erhöhung der Bildauflösung mit einer Abweichung von weniger als 1 % bei Auflösungen über \(256 \times 256\) verringert wird. Die Auswahl einer höheren Auflösung führt jedoch zu einer exponentiell steigenden Rechenlast und damit zu längeren Modelltrainingszeiten.

Als nächstes werden Modelle mit allen fünf betrachteten Auflösungen bei drei verschiedenen Datensatzgrößen (500, 1500, 2500) trainiert. Darüber hinaus werden bei jeder Kombination aus Datensatzgröße und Auflösung zehn Modellrealisierungen entwickelt (mit denselben Trainingsbeispielen und Hyperparametern), um der statistischen Natur des Trainingsprozesses Rechnung zu tragen. Anschließend wird die Leistung dieser Modelle anhand der Testproben bewertet und mit dem mittleren absoluten prozentualen Fehler (MAPE) quantifiziert. In Abb. 6d ist der Mittelwert des über zehn Realisierungen ausgewerteten MAPE gegen die Bildauflösungen aufgetragen, wobei die Standardabweichung des MAPE als Fehlerbalken dient. Es ist zu erkennen, dass mit zunehmender Auflösung und Trainingssatzgröße MAPE und Unsicherheit abgenommen haben.

Aus der obigen Analyse haben wir eine Bildauflösung von \(256 \times 256\) für das Modelltraining ausgewählt, da die Reduzierung der \(V_f\)-Abweichung (siehe Abb. 6c) und des MAPE (siehe Abb. 6d) bei an nicht signifikant ist Erhöhung der Bildgröße von 256 auf 512 im Vergleich zu den erhöhten Rechenkosten.

Um die optimale Anzahl an Proben zu finden, die für ein effektives Lernen erforderlich sind, werden verschiedene Modelle mit der Anzahl der Proben \(n_s \in \{500\), 1000, 1500, 2000, 4000, 6000, 8000, 10.000, 15.000, trainiert. 20.000\(\}\). Wie im vorherigen Abschnitt erläutert, wird sichergestellt, dass diese Teilmengen des Datensatzes dieselbe Verteilung aufweisen wie der gesamte Datensatz. Um die statistische Natur des Trainingsprozesses zu verstehen, werden außerdem 10 verschiedene Realisierungen desselben Modells an jedem der \(n_s\) unter Verwendung desselben Satzes von Stichproben und Hyperparametern trainiert. Insgesamt werden also 100 Modelle mit zehn Teilmengen des Datensatzes und 10 Realisierungen bei jeder Teilmenge trainiert. Anschließend werden diese trainierten Modelle an Proben getestet, die während des Trainings nicht gesehen wurden, wobei die Größe des Testsatzes halb so groß wie die Größe des Trainingssatzes gewählt wird. Mit anderen Worten: Modelle, die mit 5.000 Proben trainiert wurden, werden mit 2.500 unsichtbaren Proben getestet. Mittlerer absoluter prozentualer Fehler (MAPE), wie in Gleichung definiert. (8) wird verwendet, um die Vorhersagefähigkeit des trainierten Modells zu messen.

Dabei ist \(n_{test}\) die Anzahl der Testproben und die hochgestellten Zeichen t und p geben wahre und vorhergesagte Werte von y an. Obwohl MAPE einfacher zu interpretieren und unabhängig zu skalieren ist, weist es bestimmte Einschränkungen auf, z. B. die Tendenz zur Unendlichkeit oder Undefiniertheit, wenn der wahre Wert sich Null nähert oder diesem entspricht. In der vorliegenden Arbeit wird jedoch durch die Normalisierung der effektiven Eigenschaften mit dem jeweiligen Matrixmodul das Problem beseitigt, dass die wahren oder Zielwerte \(y_i^{(t)}\) immer größer oder gleich eins sind. Außerdem ist es wichtig zu beachten, dass der absolute prozentuale Fehler Unterschätzung und Überschätzung unterschiedlich behandelt.

Die Variation des Mittelwerts und der Standardabweichung von MAPE, bewertet am Testsatz über 10 Realisierungen, ist in Abb. 7 gegen die Anzahl der Trainingsbeispiele aufgetragen. Wir bezeichnen diese Kurven als Lernkonvergenzkurven (LCC). In Abb. 7 kann man beobachten, dass das MAPE aller drei normalisierten transversalen Eigenschaften (\({\overline{E}}_{22}\), \({\overline{E}}_{33}\), \ ({\overline{G}}_{23}\)) ist bei etwa einem Trainingssatz von 10.000 Stichproben konvergiert. Wie aus den Fehlerbalken hervorgeht, hat sich außerdem die Standardabweichung mit der Größe des Trainingssatzes erheblich verringert. Aus dieser Konvergenzanalyse haben wir eine Trainingssatzgröße von 10.000 als optimal ausgewählt und fahren mit der gründlichen Analyse der mit dieser Datensatzgröße trainierten Modelle fort.

Lernkonvergenzkurven der auf dem Datensatz \({\mathscr {D}}_1\) trainierten Modelle, die die Variation des MAPE jeder Eigenschaft mit der Größe des Trainingssatzes zeigen. Fehlerbalken geben die Standardabweichung von MAPE über zehn Realisierungen des Modells an, die mit demselben Satz von Stichproben und Hyperparametern trainiert wurden.

Die querelastischen Eigenschaften (d. h. Zieleigenschaften) hängen vom Faservolumenanteil \(V_f\) und dem Elastizitätsmodulkontrast \(E_{cr}\) ab, wie in Abb. 2 dargestellt. Es ist schwierig, diesbezüglich auf die Modellleistung zu schließen zu diesen Parametern mithilfe von MAPE, da es Informationen über alle \(V_f\) oder alle \(E_{cr}\) in einen einzigen Wert komprimiert, siehe Gl. (8). Um ein klares Verständnis der Vorhersagefähigkeit des Modells zu erhalten, wird der absolute prozentuale Fehler (APE) jeder Vorhersage untersucht. In Abb. 8 zeigen Streudiagramme die APE aller drei Eigenschaftsvorhersagen für 5000 Testproben in Bezug auf \(V_f\) und \(E_{cr}\). Es ist zu erkennen, dass der absolute prozentuale Fehler bis auf wenige Ausreißer unter 5 % liegt. Die kumulative Verteilungsfunktion auf der rechten Seite von Abb. 8 zeigt den Anteil der Proben unterhalb eines bestimmten APE. Beispielsweise weisen 86 % der Proben einen absoluten Vorhersagefehler von weniger als 3 % und bei 97 % der Testproben einen APE von weniger als 5 % auf.

Die Streudiagramme zeigen den absoluten prozentualen Fehler (APE) der Zieleigenschaftenvorhersagen für 5000 Testproben mit \(V_f\) und \(E_{cr}\). Die kumulative Verteilungsfunktion auf der rechten Seite zeigt den Anteil der Proben unter einem bestimmten APE; Es zeigt beispielsweise, dass der APE der Modellvorhersage bei 97 % der Testproben weniger als 5 % beträgt.

In den vorhergehenden Abschnitten wird das Ersatzmodell erstellt und trainiert, um Vorhersagen in einem weiten Bereich von \(V_f \in [25\%, 75\%]\) und \(E_{cr} = E_f/E_m \ in [5 , 250]\). Außerdem werden diese Modelle an ungesehenen Proben getestet, die zum gleichen Bereich gehören, und es wurde festgestellt, dass die Leistung innerhalb akzeptabler Grenzen liegt. Es wäre interessant zu sehen, wie sich das Modell im extrapolierten Bereich verhält, der beim Training nicht berücksichtigt wurde. In Abb. 9 sind extrapolierte Domänen der Datensätze (\({\mathscr {D}}_2\), \({\mathscr {D}}_3\) und \({\mathscr {D}}_4\)) in Bezug auf den Bereich des Hauptdatensatzes \({\mathscr {D}}_1\) sind schematisch dargestellt. In diesen extrapolierten Domänen ist die Variation der Eigenschaft gegenüber ihrem Verbindungsbereich der nativen Domäne nicht signifikant, wie im mittleren und rechten Schema von Abb. 9 dargestellt. Daher wird erwartet, dass das Modell wie in der Abbildung eine einigermaßen gute Genauigkeit vorhersagt native Domäne. Wichtig ist, dass eine solche Übung dabei hilft, die Allgemeingültigkeit des CNN-Modells und seine Fähigkeit zu bewerten, Eigenschaften völlig unsichtbarer Mikrostrukturen vorherzusagen, deren Eigenschaften im Trainingsdatensatz nicht vorhanden sind. Um die Leistung des Modells in diesen außerirdischen Domänen zu testen, wird die Größe der Datensätze im Verhältnis zur Domänengröße ausgewählt. Da der Bereich von \(E_{cr}\) für alle Domänen ungefähr gleich ist, wird die Anzahl der Testproben basierend auf dem Bereich \(V_f\) berechnet. Für die Datensätze \({\mathscr {D}}_1\) und \({\mathscr {D}}_2\) mit 50 % \(V_f\)-Bereich werden 5000 Testproben verwendet, für die restlichen zwei Bei Datensätzen mit einem \(V_f\)-Bereich von 15 % werden 1500 Testproben verwendet. Der APE der Modellvorhersagen für diese Datensätze ist in Abb. 10 in Bezug auf \(V_f\) und \(E_{cr}\) zusammen mit der kumulativen Verteilungsfunktion von APE dargestellt. Im Fall von \({\mathscr {D}}_3\) und \({\mathscr {D}}_4\), wie in Abb. 10b,c gezeigt, zeigt APE einen zunehmenden Trend mit abnehmendem \(V_f\ ). Dies könnte auf Abweichungen in den Strukturinformationen von RVE mit abnehmendem \(V_f\) zurückzuführen sein, obwohl sich seine Zieleigenschaft nicht wesentlich ändert. In allen drei extrapolierten Bereichen beträgt der APE der Modellvorhersagen für mindestens 85–90 % der Teststichproben weniger als 5 %. Dies legt nahe, dass das trainierte Modell im extraterritorialen Bereich von \(V_f\) und \(E_{cr}\) verwendet werden kann.

Schematische Darstellung der drei extrapolierten Gebiete (mit den Datensätzen \({\mathscr {D}}_2\), \({\mathscr {D}}_3\) und \({\mathscr {D}}_4\)) zusammen mit dem Definitionsbereich des Hauptdatensatzes \({\mathscr {D}}_1\). Beachten Sie, dass die Schwankungen von \({\overline{E}}_{22}\) bei den höheren Werten \(V_f\) und \(E_{cr}\) nicht angezeigt werden.

Der absolute prozentuale Fehler (APE) der Modellvorhersagen beim Testen in den extrapolierten Domänen \({\mathscr {D}}_2\), \({\mathscr {D}}_3\) und \({\mathscr {D} }_4\). In jedem der Teildiagramme (a–c) zeigen die ersten beiden Streudiagramme die APE aller drei Eigenschaften in Bezug auf den Faservolumenanteil \(V_f\) und den Elastizitätsmodulkontrast \(E_{cr}\). Die kumulative Verteilungsfunktion von APE ist auf der rechten Seite dargestellt.

In den vorherigen Abschnitten haben wir die Modellleistung anhand der unsichtbaren Stichproben der trainierten Datensatzdomäne und der Datensätze extrapolierter Domänen analysiert. Es ist zu beobachten, dass der absolute prozentuale Fehler der Vorhersagen innerhalb der akzeptablen Grenzen liegt. Modellvorhersagen können jedoch physikalisch zulässig sein oder auch nicht. In diesem Abschnitt wird die Zulässigkeit dieser Vorhersagen anhand der in der Literatur verfügbaren physikalischen Grenzen beurteilt29. Wir verwenden einfachere und relativ engere Hashin-Shtrikman (HS)-Grenzen28, die mit der Gleichung ausgewertet werden können. (10). Im Allgemeinen liegen die unteren und oberen Grenzen der effektiven Eigenschaften des Verbundmaterials weit auseinander, wie in Abb. 11a dargestellt. Es ist zu erkennen, dass die Grenzen mit zunehmendem \(V_f\) und Kontrastverhältnis \(E_{cr}\) breiter werden. Und da die Quereigenschaften näher an der Untergrenze liegen (wie in Abb. 11b, c dargestellt), besteht die Möglichkeit, dass die Modellvorhersage die Untergrenze verlässt.

Dabei beziehen sich die Suffixe f und m auf Fasern und Matrix, K ist der Kompressionsmodul, G ist der Schubmodul, E ist der Elastizitätsmodul, Superfix \((-)\) und \((+)\) geben Unter- und Obergrenzen an .

Die Variation der Hashin-Shtrikman-Grenzen des Datensatzes \({\mathscr {D}}_1\) mit dem Faservolumenanteil \(V_f\) und dem Elastizitätsmodulkontrast \(E_{cr}\). (a) zeigt das Ausmaß der Trennung zwischen den mit Matrixmodulen \(E_m\) normalisierten Grenzen; (b) und (c) zeigen, dass die effektive Eigenschaft \(E_{22}\) sehr nahe an der Untergrenze liegt.

Die Anzahl der Ausreißer gegenüber HS-Untergrenzen wird für alle 10 Realisierungen des Modells ausgewertet, die auf 10.000 Stichproben des Datensatzes \({\mathscr {D}}_1\) trainiert werden. Die maximale Anzahl von Ausreißern für jede Eigenschaft mit allen vier Datensätzen ist in Tabelle 2 aufgeführt.

Es zeigt, dass eine große Anzahl von Modellvorhersagen zu den Datensätzen \({\mathscr {D}}_3\) und \({\mathscr {D}}_4\) unterhalb der Untergrenze liegen. Nun erzwingen wir diese Grenzen während des Modelltrainings, sodass alle Modellvorhersagen innerhalb der Grenzen liegen. Beim Training eines Modells können Grenzen im Allgemeinen auf zwei Arten erzwungen werden. Beim ersten Ansatz, der als Soft Enforcement bezeichnet wird, wird die Verlustfunktion des Modells durch gewichtete Addition der mittleren quadratischen Fehler der Abweichung der Vorhersagen von den Grenzen reguliert. Im Allgemeinen handelt es sich bei den Gewichten dieser zusätzlichen Verlustterme um Hyperparameter, die manuell angepasst werden müssen. Beim zweiten Ansatz, der als harte Durchsetzung bezeichnet wird, werden die Modellvorhersagen so transformiert, dass sie innerhalb der Grenzen liegen, wodurch zusätzliche Hyperparameter vermieden werden. In der vorliegenden Arbeit haben wir uns dafür entschieden, Grenzen auf strenge Weise durchzusetzen. Bei diesem Ansatz ähneln die Modellarchitektur und das Training denen in Abb. 5, mit Ausnahme einiger Änderungen am Ende des Netzwerks. Die Ausgabe der letzten Schicht des Netzwerks wird durch Anwenden der Aktivierungsfunktion \(\tanh\) auf \([-1, 1]\) abgebildet. Anschließend werden diese Werte weiter skaliert, sodass sie zwischen der Unter- und Obergrenze liegen, wie in Gleichung (1) dargestellt. (11). Es ist erwähnenswert, dass die Modellausgaben nicht auf Grenzen beschränkt sind, das Modell jedoch darauf trainiert ist, Werte zwischen den Grenzen vorherzusagen.

wobei \(y^{*} \in [-1, 1]\) die Ausgabe der \(\tanh\)-Aktivierungsfunktion auf der letzten Ebene ist, \(y^{(-)}\) und \(y ^{(+)}\) sind Unter- und Obergrenzen. Es wird beobachtet, dass das Training mit Grenzen im Gegensatz zum Training ohne Grenzen empfindlich auf die Lernrate reagiert. Modelle mit erzwungenen Grenzen werden mit einer optimalen Lernrate von 0,0005 trainiert. Der Gesamt-MAPE der Modellvorhersagen liegt nach 200 Epochen bei etwa 1,72 und liegt damit im gleichen Bereich wie bei Modellen, die ohne Grenzen trainiert wurden (siehe Tabelle 1). Dennoch wird der absolute prozentuale Fehler der Vorhersagen in den extrapolierten Bereichen \({\mathscr {D}}_3\) und \({\mathscr {D}}_4\) zusätzlich verbessert, wie in Abb. 12 dargestellt um die Anzahl der Ausreißer für alle Domänen zu eliminieren. Dies legt nahe, dass für Vorhersagen im extrapolierten Bereich, insbesondere in Richtung der geringeren Faservolumenanteile, die Durchsetzung der Grenzen wichtig ist, um physikalisch gültige Eigenschaften vorherzusagen.

Absoluter prozentualer Fehler (APE) der durch Grenzen erzwungenen Modellvorhersagen beim Testen an den Datensätzen \({\mathscr {D}}_1\), \({\mathscr {D}}_2\), \({\mathscr {D}}_3\) und \({\mathscr {D}}_4\). In (a–d) zeigen die ersten beiden Streudiagramme den APE der Modellvorhersagen in Bezug auf den Faservolumenanteil \(V_f\) und den Elastizitätsmodulkontrast \(E_{cr}\). Auf der rechten Seite zeigt die kumulative Verteilungsfunktion von APE den Anteil der Proben unter 3 % APE und 5 % APE.

Es werden CNN-Modelle zur Vorhersage der normalisierten transversalen elastischen Eigenschaften von faserverstärkten Verbundwerkstoffen entwickelt. Um die Anwendbarkeit des Modells zu erhöhen, wird es auf einen breiten Bereich von Faservolumenanteilen in [25 %, 75 %] und einem Faser-Matrix-Elastizitätsmodul-Kontrastverhältnis in [5, 250] trainiert. Das Modell liefert nachweislich sehr gute Vorhersagen selbst für völlig unsichtbare Mikrostrukturen, die außerhalb des betrachteten Bereichs von Volumenanteilen (in [10 %, 25 %]) und Modulverhältnissen (in [250, 500]) liegen. Darüber hinaus zeigte die Studie, dass eine sorgfältige Vorbereitung des Datensatzes und ein sorgfältiges Trainingsdesign für das Erreichen einer besseren Modellleistung von entscheidender Bedeutung sind. In Summe,

Es wird eine einfache und neuartige Methode entwickelt, um Materialeigenschaften von Bestandteilen im Graustufenbild der Mikrostruktur zu kodieren, sodass das Modell neben den geometrischen Informationen auch Materialinformationen lernt.

Es wurde festgestellt, dass das RVE-Binärbild mit einer Auflösung von \(256 \times 256\) eine minimale \(V_f\)-Abweichung (\(<1\%\)) vom wahren \(V_f\) aufweist; Außerdem wurde festgestellt, dass MAPE bei dieser RVE-Bildauflösung konvergiert.

Die stochastische Natur des Trainingsprozesses wird anhand des Mittelwerts und der Standardabweichung von MAPE quantifiziert und anhand von 10 Realisierungen des Modelltrainings bewertet.

Unter Verwendung der Lernkonvergenzkurven wird die optimale Trainingssatzgröße mit zehntausend bestimmt. Darüber hinaus wird festgestellt, dass die Reduzierung des MAPE der Modellvorhersagen vernachlässigbar ist.

Im Trainingssatzbereich weisen mindestens 96 % der 5000 Testbeispielvorhersagen einen absoluten prozentualen Fehler (APE) von weniger als 5 % auf.

Bei extrapolierten Domänen weisen mindestens etwa 85–90 % der Testproben einen APE von weniger als 5 % auf.

Am Ende haben wir die Modelle mit strenger Durchsetzung der physikbasierten HS-Grenzen trainiert, sodass die Modellvorhersagen immer physikalisch zulässig sind. Außerdem wurde dadurch die Leistungsmetrik APE des Modells in den extrapolierten Domänen \({\mathscr {D}}_3\) und \({\mathscr {D}}_4\) verbessert.

Die vorgeschlagene Idee der Materialkodierung kann verwendet werden, um Ersatzmodelle für heterogene, anisotrope Materialien mit unterschiedlichen Konstituentenkombinationen zu erstellen, indem der Stapel relevanter Materialinformationsarrays als Eingabe in das Netzwerk verwendet wird. Da das Modell einen weiten Bereich von Faservolumenanteilen und Elastizitätsmodulkontrasten abdeckt, können die trainierten Modelle außerdem für das inverse Design der Mikrostrukturen verwendet werden, was die gewünschten Eigenschaften ergibt.

Die während der aktuellen Studie verwendeten und/oder analysierten Datensätze sind unter folgendem Link verfügbar: https://github.com/338rajesh/mpi-cnn.

Liu, X., Tian, ​​S., Tao, F. & Yu, W. Ein Überblick über künstliche neuronale Netze bei der konstitutiven Modellierung von Verbundmaterialien. Kompositionen. Teil B Eng. 224, 109152. https://doi.org/10.1016/j.compositesb.2021.109152 (2021).

Artikel Google Scholar

Lefik, M., Boso, D. & Schrefler, B. Künstliche neuronale Netze in der numerischen Modellierung von Verbundwerkstoffen. Berechnen. Methoden Appl. Mich. Ing. 198, 1785–1804. https://doi.org/10.1016/j.cma.2008.12.036 (2009).

Artikel ADS MATH Google Scholar

Chakraborty, D. Auf einem künstlichen neuronalen Netzwerk basierende Delaminierungsvorhersage in laminierten Verbundwerkstoffen. Mater. Entwurf 26, 1–7. https://doi.org/10.1016/j.matdes.2004.04.008 (2005).

Artikel CAS Google Scholar

Karniadakis, GE et al. Physikbasiertes maschinelles Lernen. Nat. Rev. Phys. 3, 422–440. https://doi.org/10.1038/s42254-021-00314-5 (2021).

Artikel Google Scholar

Raissi, M., Perdikaris, P. & Karniadakis, G. Physikinformierte neuronale Netze: Ein Deep-Learning-Framework zur Lösung von Vorwärts- und Umkehrproblemen mit nichtlinearen partiellen Differentialgleichungen. J. Comput. Physik. 378, 686–707. https://doi.org/10.1016/j.jcp.2018.10.045 (2019).

Artikel ADS MathSciNet MATH Google Scholar

Rezaei, S., Harandi, A., Moeineddin, A., Xu, B.-X. & Reese, S. Eine gemischte Formulierung für physikinformierte neuronale Netze als potenzieller Löser für technische Probleme in heterogenen Bereichen: Vergleich mit der Finite-Elemente-Methode. https://doi.org/10.48550/ARXIV.2206.13103 (2022).

Henkes, A., Wessels, H. & Mahnken, R. Die Physik informierte über neuronale Netze für die Kontinuumsmikromechanik. Berechnen. Methoden Appl. Mech. Ing. 393, 114790. https://doi.org/10.1016/j.cma.2022.114790 (2022).

Artikel ADS MathSciNet MATH Google Scholar

Bessa, M. et al. Ein Rahmen für die datengesteuerte Analyse von Materialien unter Unsicherheit: Dem Fluch der Dimensionalität entgegenwirken. Berechnen. Methoden Appl. Mech. Ing. 320, 633–667. https://doi.org/10.1016/j.cma.2017.03.037 (2017).

Artikel ADS MathSciNet MATH Google Scholar

Morand, L., Link, N., Iraki, T., Dornheim, J. & Helm, D. Effiziente Erforschung von Mikrostruktur-Eigenschaftsräumen durch aktives Lernen. Vorderseite. Mater.https://doi.org/10.3389/fmats.2021.824441 (2022).

Artikel Google Scholar

Melro, A., Camanho, P. & Pinho, S. Einfluss geometrischer Parameter auf die elastische Reaktion unidirektionaler Verbundwerkstoffe. Kompositionen. Struktur. 94, 3223–3231. https://doi.org/10.1016/j.compstruct.2012.05.004 (2012).

Artikel Google Scholar

Tian, ​​W., Qi, L., Chao, X., Liang, J. & Fu, M. Periodische Randbedingung und ihr numerischer Implementierungsalgorithmus zur Bewertung effektiver mechanischer Eigenschaften von Verbundwerkstoffen mit komplizierten Mikrostrukturen. Kompositionen. Teil B Eng. 162, 1–10. https://doi.org/10.1016/j.compositesb.2018.10.053 (2019).

Artikel Google Scholar

Higuchi, R., Yokozeki, T., Nagashima, T. & Aoki, T. Bewertung der mechanischen Eigenschaften von nicht kreisförmigen kohlenstofffaserverstärkten Kunststoffen mithilfe XFEM-basierter rechnergestützter Mikromechanik. Kompositionen. Teil A Appl. Wissenschaft. Hersteller. 126, 105556. https://doi.org/10.1016/j.compositesa.2019.105556 (2019).

Artikel CAS Google Scholar

Yu, W. & Tang, T. Variationelle asymptotische Methode zur Elementarzellenhomogenisierung periodisch heterogener Materialien. Int. J. Feststoffstruktur. 44, 3738–3755. https://doi.org/10.1016/j.ijsolstr.2006.10.020 (2007).

Artikel MathSciNet MATH Google Scholar

Pathan, MV et al. Vorhersagen der mechanischen Eigenschaften unidirektionaler Faserverbundwerkstoffe durch überwachtes maschinelles Lernen. Wissenschaft. Rep.https://doi.org/10.1038/s41598-019-50144-w (2019).

Artikel PubMed PubMed Central Google Scholar

Liu, H. & Zhang, Y. Bildgesteuerte Methode zur Bewertung des Schadenszustands von Baustahl unter Verwendung eines Deep-Learning-Algorithmus. Messung 133, 168–181. https://doi.org/10.1016/j.measurement.2018.09.081 (2019).

Artikel ADS Google Scholar

Rao, C. & Liu, Y. Dreidimensionales Faltungs-Neuronales Netzwerk (3d-cnn) zur heterogenen Materialhomogenisierung. Berechnen. Mater. Wissenschaft. 184, 109850. https://doi.org/10.1016/j.commatsci.2020.109850 (2020).

Artikel Google Scholar

Cheng, L. & Wagner, GJ Ein repräsentatives Volumenelementnetzwerk (RVE-net) zur Beschleunigung der RVE-Analyse, Materialidentifizierung im Mikromaßstab und Defektcharakterisierung. Berechnen. Methoden Appl. Mech. Ing. 390, 114507. https://doi.org/10.1016/j.cma.2021.114507 (2022).

Artikel ADS MathSciNet MATH Google Scholar

Kondo, R., Yamakawa, S., Masuoka, Y., Tajima, S. & Asahi, R. Mikrostrukturerkennung mithilfe von Faltungs-Neuronalen Netzen zur Vorhersage der Ionenleitfähigkeit in Keramik. Acta Materialia 141, 29–38. https://doi.org/10.1016/j.actamat.2017.09.004 (2017).

Artikel ADS CAS Google Scholar

Li, X. et al. Ein Transfer-Learning-Ansatz für die Rekonstruktion von Mikrostrukturen und Vorhersagen von Struktureigenschaften. Wissenschaft. Rep.https://doi.org/10.1038/s41598-018-31571-7 (2018).

Artikel PubMed PubMed Central Google Scholar

Mann, A. & Kalidindi, SR Entwicklung eines robusten CNN-Modells zur Erfassung von Mikrostruktur-Eigenschaftsverknüpfungen und Baugrundstücksabschlüssen zur Unterstützung des Materialdesigns. Vorderseite. Mater.https://doi.org/10.3389/fmats.2022.851085 (2022).

Artikel Google Scholar

Ejaz, F. et al. Faltungs-Neuronale Netze zur Annäherung der elektrischen und thermischen Leitfähigkeit von Cu-CNT-Verbundwerkstoffen. Wissenschaft. Rep.https://doi.org/10.1038/s41598-022-16867-z (2022).

Artikel PubMed PubMed Central Google Scholar

Khan, A., Sohail, A., Zahoora, U. & Qureshi, AS Ein Überblick über die jüngsten Architekturen tiefer Faltungs-Neuronalnetze. Artif. Intel. Rev. 53, 5455–5516. https://doi.org/10.1007/s10462-020-09825-6 (2020).

Artikel Google Scholar

Lin, M., Chen, Q. & Yan, S. Netzwerk im Netzwerk. https://doi.org/10.48550/ARXIV.1312.4400 (2013).

Zhou, K., Sun, H., Enos, R., Zhang, D. & Tang, J. Nutzung von Deep Learning für eine physikbasierte Vorhersage der Festigkeit von Verbundwerkstoffen mit mikrostrukturellen Unsicherheiten. Berechnen. Mater. Wissenschaft. 197, 110663. https://doi.org/10.1016/j.commatsci.2021.110663 (2021).

Artikel Google Scholar

Cecen, A., Dai, H., Yabansu, YC, Kalidindi, SR & Song, L. Materialstruktur-Eigenschaftsverknüpfungen unter Verwendung dreidimensionaler Faltungs-Neuronalnetze. Acta Materialia 146, 76–84. https://doi.org/10.1016/j.actamat.2017.11.053 (2018).

Artikel ADS CAS Google Scholar

Li, L. & Chen, C. Gleichgewichtsbasierte Faltungs-Neuronale Netze zur konstitutiven Modellierung hyperelastischer Materialien. J. Mech. Physik. Solids 164, 104931. https://doi.org/10.1016/j.jmps.2022.104931 (2022).

Artikel Google Scholar

Li, M. et al. Ein Deep-Learning-Faltungs-Neuronales Netzwerk und ein mehrschichtiges Perzeptron-Hybrid-Fusionsmodell zur Vorhersage der mechanischen Eigenschaften von Kohlefasern. Mater. Entwurf 227, 111760. https://doi.org/10.1016/j.matdes.2023.111760 (2023).

Artikel CAS Google Scholar

Hashin, Z. Über das elastische Verhalten faserverstärkter Materialien beliebiger transversaler Phasengeometrie. J. Mech. Physik. Feststoffe 13, 119–134. https://doi.org/10.1016/0022-5096(65)90015-3 (1965).

Artikel ADS Google Scholar

Qu, J. & Cherkaoui, M. Grundlagen der Mikromechanik von Festkörpern (Wiley, 2006).

Buchen Sie Google Scholar

Adams, DF & Doner, DR Quernormale Belastung eines unidirektionalen Verbundwerkstoffs. J. Compos. Mater. 1, 152–164. https://doi.org/10.1177/002199836700100205 (1967).

Artikel ADS Google Scholar

Nakka, R., Harursampath, D., Pathan, M. & Ponnusami, SA Ein rechnerisch effizienter Ansatz zur Erzeugung von RVEs verschiedener Einschluss-/Faserformen. Kompositionen. Struktur. 291, 115560. https://doi.org/10.1016/j.compstruct.2022.115560 (2022).

Artikel Google Scholar

Jung, J., Yoon, JI, Park, HK, Kim, JY & Kim, HS Ein effizienter maschineller Lernansatz zur Herstellung von Struktur-Eigenschafts-Verknüpfungen. Berechnen. Mater. Wissenschaft. 156, 17–25. https://doi.org/10.1016/j.commatsci.2018.09.034 (2019).

Artikel Google Scholar

Gibson, RF Principles of Composite Material Mechanics (CRC Press, 2016).

Buchen Sie Google Scholar

Whitney, JM & Riley, MB Elastische Eigenschaften faserverstärkter Verbundwerkstoffe. AIAA J. 4, 1537–1542. https://doi.org/10.2514/3.3732 (1966).

Artikel ADS CAS Google Scholar

Tang, T. & Yu, W. Variationelle asymptotische Mikromechanikmodellierung heterogener piezoelektrischer Materialien. Mech. Mater. 40, 812–824. https://doi.org/10.1016/j.mechmat.2008.04.007 (2008).

Artikel Google Scholar

Pitchai, P., Berger, H. & Guruprasad, P. Untersuchung des Einflusses der Grenzfläche in einem dreiphasigen Verbundwerkstoff unter Verwendung einer auf der Variations-Asymptotik-Methode basierenden Homogenisierungstechnik. Kompositionen. Struktur. 233, 111562. https://doi.org/10.1016/j.compstruct.2019.111562 (2020).

Artikel Google Scholar

Geuzaine, C. & Remacle, J.-F. Gmsh: Ein 3D-Finite-Elemente-Netzgenerator mit integrierten Vor- und Nachbearbeitungsfunktionen. Int. J. Numer. Methoden Eng. 79, 1309–1331. https://doi.org/10.1002/nme.2579 (2009).

Artikel MathSciNet MATH Google Scholar

Simonyan, K. & Zisserman, A. Sehr tiefe Faltungsnetzwerke für die Bilderkennung im großen Maßstab. https://doi.org/10.48550/ARXIV.1409.1556 (2014).

Kingma, DP & Ba, J. Adam: Eine Methode zur stochastischen Optimierung. https://doi.org/10.48550/ARXIV.1412.6980 (2014).

Paszke, A. et al. Pytorch: Eine leistungsstarke Deep-Learning-Bibliothek im Imperativ-Stil. Adv. Neuronale Information. Verfahren. Syst. 32, 8026–8037 (2019).

Google Scholar

Referenzen herunterladen

NMCAD-Labor, Abteilung für Luft- und Raumfahrttechnik, Indian Institute of Science, Bengaluru, Karnataka, Indien

Rajesh Nakka & Dineshkumar Harursampath

Forschungszentrum für Luft- und Raumfahrt, Department of Engineering, City, University of London, Northampton Square, London, Vereinigtes Königreich

Sathiskumar A Ponnusami

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

RN plante und führte die Forschung durch und verfasste den ursprünglichen Entwurf des Papiers; RN und SAP konzipierten und planten die Forschung; SAP und DH beaufsichtigten RN; SAP, DH und RN haben das Manuskript Korrektur gelesen, überprüft und bearbeitet.

Korrespondenz mit Sathiskumar A Ponnusami.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Nakka, R., Harursampath, D. & Ponnusami, SA Ein verallgemeinertes Deep-Learning-basiertes Ersatzmodell zur Homogenisierung unter Verwendung der Kodierung von Materialeigenschaften und physikbasierten Grenzen. Sci Rep 13, 9079 (2023). https://doi.org/10.1038/s41598-023-34823-3

Zitat herunterladen

Eingegangen: 11. November 2022

Angenommen: 09. Mai 2023

Veröffentlicht: 05. Juni 2023

DOI: https://doi.org/10.1038/s41598-023-34823-3

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.

AKTIE