banner
Heim / Nachricht / Langfristige Prognose des 5G-Netzwerkverkehrs durch Modellierung nicht
Nachricht

Langfristige Prognose des 5G-Netzwerkverkehrs durch Modellierung nicht

Apr 12, 2023Apr 12, 2023

Kommunikationstechnik Band 2, Artikelnummer: 33 (2023) Diesen Artikel zitieren

Details zu den Metriken

5G-Mobilfunknetze haben in letzter Zeit eine Vielzahl neuer Anwendungen gefördert, ihre Popularität hat jedoch zu einem Verkehrswachstum geführt, das den Netzausbau bei weitem übersteigt. Diese Nichtübereinstimmung kann die Netzwerkqualität beeinträchtigen und schwerwiegende Leistungsprobleme verursachen. Um das Risiko zu verringern, benötigen Betreiber eine langfristige Verkehrsprognose, um Netzwerkerweiterungspläne Monate im Voraus durchführen zu können. Der langfristige Vorhersagehorizont macht jedoch die Instationarität der Reihendaten deutlich, was die Leistung bestehender Ansätze beeinträchtigt. Wir gehen dieses Problem an, indem wir ein Deep-Learning-Modell namens Diviner entwickeln, das stationäre Prozesse in eine gut gestaltete hierarchische Struktur integriert und instationäre Zeitreihen mit mehrskaligen stabilen Merkmalen modelliert. Wir demonstrieren eine erhebliche Leistungsverbesserung von Diviner gegenüber dem aktuellen Stand der Technik bei der Prognose des 5G-Netzwerkverkehrs mit detaillierten Prognosen auf Monatsebene für große Häfen mit komplexen Flussmustern. Umfangreiche Experimente belegen außerdem seine Anwendbarkeit auf verschiedene Vorhersageszenarien ohne jegliche Modifikation und zeigen das Potenzial zur Lösung umfassenderer technischer Probleme.

Die 5G-Technologie hat aufgrund ihrer schnelleren Übertragungsgeschwindigkeit, größeren Bandbreite, Zuverlässigkeit und Sicherheit in letzter Zeit weltweit an Popularität gewonnen. Die 5G-Technologie kann eine theoretisch 20-mal höhere Spitzengeschwindigkeit als 4G mit geringerer Latenz erreichen und so Anwendungen wie Online-Gaming, HD-Streaming-Dienste und Videokonferenzen fördern1,2,3. Die Entwicklung von 5G verändert die Welt in unglaublichem Tempo und fördert aufstrebende Branchen wie Telemedizin, autonomes Fahren und erweiterte Realität4,5,6. Es wird geschätzt, dass diese und andere Branchen den Netzwerkverkehr um das Tausendfache steigern und zusätzliche Kapazitäten erfordern, um diese wachsenden Dienste und Anwendungen zu unterstützen7. Dennoch muss die 5G-Infrastruktur wie Bordkarten und Router unter strengen Kostengesichtspunkten bereitgestellt und verwaltet werden8,9. Daher verwenden Betreiber häufig eine verteilte Architektur, um massive Back-to-Back-Geräte und Verbindungen zwischen fragmentierten Netzwerken zu vermeiden10,11,12,13. Wie in Abb. 1a dargestellt, ist der neu entstehende Metropol-Router der Knotenpunkt zur Verbindung städtischer Zugangsrouter, über den auf Dienste zugegriffen und diese effektiv integriert werden können. Der Bauzyklus von 5G-Geräten erfordert jedoch etwa drei Monate für Planung, Beschaffung und Bereitstellung. Die Planung neuer Infrastrukturen erfordert genaue Vorhersagen des Netzwerkverkehrs über Monate im Voraus, um den Moment zu antizipieren, in dem die Kapazitätsauslastung den voreingestellten Schwellenwert überschreitet, wobei die überlastete Kapazitätsauslastung letztendlich zu Leistungsproblemen führen könnte. Ein weiteres Problem betrifft den Ressourcenüberschuss, der durch den Aufbau grobkörniger 5G-Infrastrukturen verursacht wird. Um diese Gefahren zu mindern, formulieren Betreiber Monate im Voraus Netzwerkerweiterungspläne mit langfristiger Vorhersage des Netzwerkverkehrs, was die langfristige Planung für die Modernisierung und Skalierung der Netzwerkinfrastruktur erleichtern und sie auf den nächsten Planungszeitraum vorbereiten kann14,15,16,17.

a Wir sammeln die Daten von MAR-MER-Links. Der orangefarbene Zylinder zeigt die Metropolitan Emerging Routers (MER) und der hellblaue Zylinder zeigt Metropolitan Accessing Routers (MAR). b Die Veranschaulichung des eingeführten 2D → 3D-Transformationsprozesses. Konkret erstellen wir anhand einer Zeitreihe von Netzwerkverkehrsdaten, die sich über K Tage erstreckt, eine Zeitreihenmatrix \(\widetilde{{{{{{{{\bf{X}}}}}}}}}=[{\tilde {{{{{{{\bf{x}}}}}}}}}_{1}\,\,{\tilde{{{{{{{\bf{x}}}}} }}}}}_{2}\,\,\ldots \,\,{\tilde{{{{{{{{\bf{x}}}}}}}}}}_{K}]\ ), wobei jedes \({\tilde{{{{{{{{\bf{x}}}}}}}}}}_{i}\) die Verkehrsdaten für einen einzelnen Tag der Länge T darstellt. Die Das resultierende 3D-Diagramm zeigt die Zeitschritte für jeden Tag, die täglichen Zeitschritte und den Inbits-Verkehr entlang der X-, Y- bzw. Z-Achse an, wobei der Inbits-Verkehr standardisiert ist. Die blaue Linie im 2D-Diagramm und die Seite nahe dem Ursprung der blassroten Ebene im 3D-Diagramm stellen den historischen Netzwerkverkehr dar, während die gelbliche Linie im 2D-Diagramm und die Seite weit vom Ursprung der blassroten Ebene im 3D-Diagramm dargestellt sind Das Diagramm stellt den künftigen Netzwerkverkehr dar, der vorherzusagen ist. c Der gesamte Arbeitsablauf des vorgeschlagenen Wahrsagers. Die blaue durchgezogene Linie gibt die Richtung des Datenstroms an. Sowohl der Encoder- als auch der Decoderblock von Diviner enthalten einen Glättungsfilter-Aufmerksamkeitsmechanismus (gelber Block), ein Differenzaufmerksamkeitsmodul (blassvioletter Block), eine Reststruktur (blassgrüner Block) und eine Feed-Forward-Schicht (grauer Block). Abschließend wird ein einstufiger Faltungsgenerator (Magenta-Block) eingesetzt, um die dynamische Dekodierung in ein sequenzgenerierendes Verfahren umzuwandeln.

In der Industrie ist es eine gängige Praxis, die potenzielle Wachstumsrate des Netzwerkverkehrs durch Analyse der historischen Verkehrsdaten zu berechnen18. Dieser Ansatz lässt sich jedoch nicht zur Vorhersage der Nachfrage nach neuen Diensten skalieren und ist für langfristige Prognosen nicht zufriedenstellend. Und vorhersagebasierte Methoden wurden eingeführt, um dieses Dilemma zu lösen, indem sie die potenziellen Abhängigkeiten im historischen Netzwerkverkehr untersuchen, der sowohl eine Einschränkung als auch eine Quelle für die Bewertung des zukünftigen Verkehrsaufkommens darstellt. Netzwerkplaner können die Abhängigkeiten nutzen, um Verkehrsprognosen über einen ausreichend langen Zeitraum zu extrapolieren, um nachhaltige Ausbaupläne und Minderungsstrategien zu entwickeln. Das Hauptproblem dieser Aufgabe besteht darin, eine genaue langfristige Vorhersage des Netzwerkverkehrs zu erhalten. Eine direkte Erweiterung des Vorhersagehorizonts bestehender Methoden ist jedoch für die Langzeitprognose unwirksam, da diese Methoden einen starken Leistungsabfall erleiden, bei dem der langfristige Vorhersagehorizont die Instationarität von Zeitreihen aufdeckt. Diese inhärente Instationarität realer Zeitreihendaten wird durch zeitliche Variationen auf mehreren Skalen, zufällige Störungen und Ausreißer verursacht, die verschiedene Herausforderungen mit sich bringen. Diese sind wie folgt zusammengefasst. (a) Mehrskalige zeitliche Variationen. Mehrskalige (tägliche/wöchentliche/monatliche/jährliche) Variationen über langfristige Zeitreihen hinweg weisen auf mehrskalige instationäre latente Muster innerhalb der Zeitreihe hin, die bei der Modellgestaltung umfassend berücksichtigt werden sollten. Die saisonale Komponente weist beispielsweise lediglich Schwankungen auf bestimmten Skalen auf. (b) Zufällige Faktoren. Zufällige Störungen und Ausreißer beeinträchtigen die Entdeckung stabiler Regelmäßigkeiten, was zu einer höheren Robustheit der Vorhersagemodelle führt. (c) Verschiebung der Datenverteilung. Die Nichtstationarität der Zeitreihe führt unweigerlich zu einem Problem der Datensatzverschiebung, da die Verteilung der Eingabedaten im Laufe der Zeit variiert. Abbildung 1b veranschaulicht diese Herausforderungen.

Als nächstes untersuchen wir die Mängel bestehender Methoden im Hinblick auf die Bewältigung von Nichtstationaritätsproblemen. Bestehende Methoden zur Vorhersage von Zeitreihen lassen sich im Allgemeinen in zwei Kategorien einteilen: konventionelle Modelle und Deep-Learning-Modelle. Die meisten herkömmlichen Modelle, wie ARIMA19,20 und HoltWinters21,22,23,24,25, werden mit einem gewissen Einblick in die Zeitreihen erstellt, sind jedoch linear implementiert, was zu Problemen bei der Modellierung instationärer Zeitreihen führt. Darüber hinaus sind diese Modelle auf manuell abgestimmte Parameter angewiesen, um sie an die Zeitreihe anzupassen, was ihre Anwendung in groß angelegten Vorhersageszenarien erschwert. Obwohl Prophet26 einen nichtlinearen modularen und interpretativen Parameter verwendet, um diese Probleme anzugehen, benötigen seine handgefertigten nichtlinearen Module Hilfe bei der einfachen Modellierung instationärer Zeitreihen, deren komplexe Muster es ineffizient machen, verschiedene Faktoren in handgefertigte Funktionen einzubetten. Dieses Dilemma treibt die Entwicklung von Deep-Learning-Methoden voran. Deep-Learning-Modelle können mehrere Schichten nutzen, um latente Merkmale auf einer höheren und abstrakteren Ebene darzustellen27, was es uns ermöglicht, tiefe latente Muster in instationären Zeitreihen zu erkennen. Rekurrente neuronale Netze (RNNs) und Transformer-Netze sind zwei wichtige Deep-Learning-Prognose-Frameworks. RNN-basierte Modelle28,29,30,31,32,33,34 verfügen über eine Rückkopplungsschleife, die es Modellen ermöglicht, historische Daten zu speichern und Sequenzen variabler Länge als Eingaben und Ausgaben zu verarbeiten, wodurch die kumulative Abhängigkeit zwischen Zeitschritten berechnet wird. Dennoch kann eine solche indirekte Modellierung zeitlicher Abhängigkeiten Informationen aus verschiedenen Skalen innerhalb historischer Daten nicht entwirren und ist daher nicht in der Lage, mehrskalige Variationen innerhalb instationärer Zeitreihen zu erfassen. Transformatorbasierte Modelle35,36,37 lösen dieses Problem mithilfe eines globalen Selbstaufmerksamkeitsmechanismus anstelle von Rückkopplungsschleifen. Dies verbessert die Fähigkeit des Netzwerks, längere Abhängigkeiten und Wechselwirkungen innerhalb von Seriendaten zu erfassen, und bringt somit spannende Fortschritte bei verschiedenen Zeitreihenanwendungen38. Für eine effizientere Verarbeitung langfristiger Zeitreihen wandeln einige Studien39,40,41 den Selbstaufmerksamkeitsmechanismus in eine spärliche Version um. Trotz ihrer vielversprechenden langfristigen Prognoseergebnisse wird die Spezialisierung der Zeitreihen jedoch bei ihrem Modellierungsprozess nicht berücksichtigt, da unterschiedliche Verteilungen instationärer Zeitreihen ihre Vorhersageleistungen verschlechtern. Neuere Forschungsversuche versuchen, die Zerlegung von Zeitreihen in Deep-Learning-Modelle zu integrieren42,43,44,45,46,47. Obwohl ihre Ergebnisse ermutigend sind und interpretativere und vernünftigere Vorhersagen ermöglichen, kehrt ihre begrenzte Zerlegung, z. B. Trend-Saison-Zerlegung, die Korrelation zwischen Komponenten um und stellt lediglich die Variation von Zeitreihen auf bestimmten Skalen dar.

In dieser Arbeit integrieren wir tiefe stationäre Prozesse in neuronale Netze, um präzise langfristige 5G-Netzwerkverkehrsprognosen zu erhalten, wobei stochastische Prozesstheorien die Vorhersage stationärer Ereignisse garantieren können48,49,50. Konkret entwickeln wir, wie in Abb. 1c gezeigt, ein Deep-Learning-Modell, Diviner, das stationäre Prozesse in eine gut gestaltete hierarchische Struktur integriert und instationäre Zeitreihen mit mehrskaligen stabilen Merkmalen modelliert. Um die Wirksamkeit zu validieren, sammeln wir einen umfangreichen Netzwerk-Port-Verkehrsdatensatz (NPT) aus dem intelligenten Metropolennetzwerk, das 5G-Dienste von China Unicom bereitstellt, und vergleichen das vorgeschlagene Modell mit zahlreichen aktuellen Technologien über mehrere Anwendungen hinweg. Wir leisten zwei unterschiedliche Forschungsbeiträge zur Zeitreihenvorhersage: (1) Wir erkunden einen Weg, um die Herausforderungen zu lösen, die sich bei der Vorhersage langfristiger Zeitreihen ergeben, indem wir Nichtstationarität im Deep-Learning-Paradigma modellieren. Diese Linie ist viel universeller und effektiver als die vorherigen Arbeiten, die eine zeitliche Zerlegung für ihre begrenzte Zerlegung einbeziehen, die lediglich die zeitliche Variation auf bestimmten Maßstäben darstellt. (2) Wir entwickeln ein Deep-Learning-Framework mit einer gut gestalteten hierarchischen Struktur, um die mehrskaligen stabilen Regelmäßigkeiten innerhalb instationärer Zeitreihen zu modellieren. Im Gegensatz zu früheren Methoden, die verschiedene Module in derselben Schicht verwenden, führen wir eine dynamische Skalentransformation zwischen verschiedenen Schichten durch und modellieren stabile zeitliche Abhängigkeiten in der entsprechenden Schicht. Dieser hierarchische tiefe stationäre Prozess wird mit der kaskadierenden Merkmalseinbettung tiefer neuronaler Netze synchronisiert, was es uns ermöglicht, komplexe Regelmäßigkeiten in den Langzeitverläufen zu erfassen und eine präzise langfristige Vorhersage des Netzwerkverkehrs zu erreichen. Unser Experiment zeigt, dass sich die Robustheit und Vorhersagegenauigkeit erheblich verbessern, wenn wir mehr Faktoren bezüglich der Nichtstationarität berücksichtigen, was eine Möglichkeit bietet, die langfristige Prognosefähigkeit von Deep-Learning-Methoden zu verbessern. Darüber hinaus zeigen wir auch, dass die Modellierung der Nichtstationarität dazu beitragen kann, nichtlineare latente Regelmäßigkeiten im Netzwerkverkehr zu entdecken und eine qualitativ hochwertige langfristige 5G-Netzwerkverkehrsprognose für bis zu drei Monate zu erstellen. Darüber hinaus erweitern wir unsere Lösung auf die Bereiche Klima, Steuerung, Elektrizität, Wirtschaft, Energie und Transport, was die Anwendbarkeit dieser Lösung auf mehrere Vorhersageszenarien zeigt und wertvolles Potenzial zur Lösung umfassenderer technischer Probleme aufzeigt.

In diesem Abschnitt stellen wir unser vorgeschlagenes Deep-Learning-Modell Diviner vor, das die Nichtstationarität der Vorhersage langfristiger Zeitreihen mit tiefstationären Prozessen angeht, das stabile Merkmale auf mehreren Skalen erfasst und stabile Regelmäßigkeiten auf mehreren Skalen modelliert, um langfristige Ergebnisse zu erzielen. Termzeitreihenvorhersage.

Wie in Abb. 2a gezeigt, passt der Glättungsfilter-Aufmerksamkeitsmechanismus die Merkmalsskala an und ermöglicht es Diviner, Zeitreihen aus verschiedenen Maßstäben zu modellieren und auf die Variationsmerkmale mit mehreren Maßstäben innerhalb instationärer Zeitreihen zuzugreifen. Wir erstellen diese Komponente basierend auf der Nadaraya-Watson-Regression51,52, einem klassischen Algorithmus für nichtparametrische Regression. Gegeben sei der Probenraum \(\Omega =\{({x}_{i},{y}_{i})| 1\le i\le n,{x}_{i}\in {\mathbb{ R}},{y}_{i}\in {\mathbb{R}}\}\), Fenstergröße h und Kernelfunktion K( ⋅ ), hat die Nadaraya-Watson-Regression den folgenden Ausdruck:

wobei die Kernelfunktion K( ⋅ ) unterliegt \(\int\nolimits_{-\infty }^{\infty }K(x)dx=1\) und n, x, y die Stichprobengröße, die unabhängige Variable und bezeichnen abhängige Variable bzw.

a Dieses Panel zeigt den Glättungsfilter-Aufmerksamkeitsmechanismus, der die Berechnung adaptiver Gewichte K(ξi, ξj) (orangefarbener Block) und die Verwendung einer selbstmaskierten Struktur (grauer Block mit gestrichelten Linien) zum Herausfiltern der Ausreißer umfasst, wobei ξi das i-te bezeichnet eingebetteter Zeitreihenzeitraum (gelber Block). Die adaptiven Gewichte dienen dazu, die Merkmalsskala der Eingabereihe anzupassen und die skalentransformierte Periodeneinbettung hi (rosa Block) zu erhalten. b Dieses Diagramm veranschaulicht das Differenzaufmerksamkeitsmodul. Die Matrix-Differenztransformation (hellblauer Block) subtrahiert benachbarte Spalten einer Matrix, um die verschobenen Abfrage-, Schlüssel- und Wertelemente (ΔQ, ΔK und ΔV) zu erhalten. Anschließend wird eine autoregressive Multi-Head-Selbstaufmerksamkeit durchgeführt (im hellblauen Hintergrund), um die Korrelation von Zeitreihen über verschiedene Zeitschritte hinweg zu erfassen, was zu \({\widetilde{{{{{{{{\bf{V }}}}}}}}}}_{s}^{(i)}\) für den i-ten Aufmerksamkeitskopf. Hier ist \({{{{{{{{\bf{Q}}}}}}}}}_{s}^{(i)}\), \({{{{{{{\bf {K}}}}}}}}}_{s}^{(i)}\), \({{{{{{{\bf{V}}}}}}}}}_{s }^{(i)}\), und \({\widetilde{{{{{{{\bf{V}}}}}}}}}}_{s}^{(i)}\) stellen die Abfrage, den Schlüssel, den Wert bzw. das Ergebnis in Elementen dar. Das \({{{{{{{\rm{SoftMax}}}}}}}}\) wird auf das skalierte Skalarprodukt zwischen den Abfrage- und Schlüsselvektoren angewendet, um Aufmerksamkeitsgewichte zu erhalten (der hellgelbe Block). Die Formel für die Funktion \({{{{{{{\rm{SoftMax}}}}}}}}\) lautet \({{{{{{{\rm{SoftMax}}}}}}}} ({{{{{{{\bf{k}}}}}}}}}_{i})={e}^{{{{{{{{\bf{k}}}}} }}}}_{i}}/\mathop{\sum }\nolimits_{j = 1}^{n}{e}^{{{{{{{{{\bf{k}}}}}} }}}_{j}}\), wobei ki das i-te Element des Eingabevektors und n die Länge des Eingabevektors ist. Schließlich akkumuliert die Matrix-CumSum-Operation (hellorangefarbener Block) die verschobenen Features mithilfe der ConCat-Operation, und Ws bezeichnet die lernbaren Aggregationsparameter.

Die Nadaraya-Watson-Regression schätzt den Regressionswert \(\hat{y}\) mithilfe einer lokalen gewichteten Durchschnittsmethode, wobei das Gewicht einer Stichprobe (xi, yi), \(K(\frac{x-{x}_) {i}}{h})/\mathop{\sum }\nolimits_{j = 1}^{n}K(\frac{x-{x}_{j}}{h})\), zerfällt mit der Abstand von xi von x. Folglich liegt die Primärprobe (xi, yi) näher an den Proben in ihrer Umgebung. Dieser Prozess impliziert den Grundgedanken der Skalentransformation, bei der benachbarte Proben auf einem aussagekräftigeren visuellen Maßstab näher zusammenrücken. Inspiriert von diesem Gedanken können wir die Nadaraya-Watson-Regression aus der Perspektive der Skalentransformation neu formulieren. Wir integrieren es in die Aufmerksamkeitsstruktur, um eine erlernbare Skalenanpassungseinheit zu entwerfen. Konkret führen wir den Glättungsfilter-Aufmerksamkeitsmechanismus mit einer lernbaren Kernelfunktion und einer selbstmaskierten Operation ein, wobei ersterer Variationen für die adaptive Anpassung der Merkmalsskala verkleinert (oder vergrößert) und der Buchstabe Ausreißer eliminiert. Um das Verständnis zu erleichtern, betrachten wir hier den Fall einer eindimensionalen Zeitreihe, und der hochdimensionale Fall kann leicht extrapoliert werden (mathematisch dargestellt im Abschnitt „Methoden“). Bei gegebenem Zeitschritt ti schätzen wir seinen Regressionswert \({\hat{y}}_{i}\) mit einem adaptiv gewichteten Durchschnitt der Werte {yt∣t ≠ ti}, \({\hat{y} }_{i}={\sum }_{j\ne i}{\alpha }_{j}{y}_{j}\), wobei die adaptiven Gewichte α durch eine lernbare Kernelfunktion f erhalten werden. Das punktierte Fenster {tj∣tj ≠ ti} der Größe n − 1 bezeichnet unsere selbstmaskierte Operation und \(f{({y}_{i},y)}_{{w}_{i}}= exp({w}_{i}{({y}_{i}-y)}^{2})\), \({\alpha }_{i}=f{({y}_{i },y)}_{{w}_{i}}/{\sum }_{j\ne i}f{({y}_{j},y)}_{{w}_{i} }\). Unsere adaptiven Gewichte variieren mit der inneren Variation \(\{{({y}_{i}-y)}^{2}| {t}_{i}\ne t\}\) (verringert oder erhöht), Dadurch wird der Abstand der Punkte in jedem Zeitschritt angepasst (verkleinert oder vergrößert) und eine adaptive Feature-Skalentransformation erreicht. Insbesondere wird die geringfügige Variation bei einem großen Merkmalsmaßstab weiter verkleinert, bei einem kleinen Merkmalsmaßstab vergrößert und umgekehrt. Bei zufälligen Komponenten kann die globale Aufmerksamkeit als Methode zur Durchschnittsglättung dienen, um kleine Störungen herauszufiltern. Bei Ausreißern führt ihr großer Spielraum gegenüber regulären Elementen zu geringen Gewichten, wodurch die Beeinträchtigung durch Ausreißer ausgeschlossen wird. Besonders wenn die Stichprobe (ti, yi) ein Ausreißer wird, schiebt sich diese Struktur beiseite. Somit filtert der Glättungsfilter-Aufmerksamkeitsmechanismus zufällige Komponenten heraus und passt die Merkmalsskalen dynamisch an. Auf diese Weise können wir instationäre Zeitreihen dynamisch nach verschiedenen Maßstäben transformieren, wodurch auf Zeitreihen unter umfassender Sicht zugegriffen wird.

Das Differenzaufmerksamkeitsmodul berechnet die internen Verbindungen zwischen stabil verschobenen Merkmalen, um stabile Regelmäßigkeiten innerhalb der instationären Zeitreihen zu entdecken und überwindet dadurch die Interferenz ungleichmäßiger Verteilungen. Konkret umfasst dieses Modul, wie in Abb. 2b dargestellt, die Differenz- und CumSum-Operationen an beiden Enden des Selbstaufmerksamkeitsmechanismus35, der die Verschiebung über jeden Zeitschritt hinweg miteinander verbindet, um interne Verbindungen innerhalb instationärer Zeitreihen zu erfassen. Die Differenzoperation trennt die Verschiebungen von den langfristigen Trends, wobei sich die Verschiebung auf den geringfügigen Unterschied in den Trends zwischen benachbarten Zeitschritten bezieht. Wenn man bedenkt, dass Trends dazu führen, dass sich die Datenverteilung im Laufe der Zeit ändert, macht die Differenzoperation die Zeitreihe stabil und schwankt um ein festes Mittelwertniveau mit geringfügigen Verteilungsverschiebungen. Anschließend verwenden wir einen Selbstaufmerksamkeitsmechanismus zur Verknüpfung von Verschiebungen, der die zeitlichen Abhängigkeiten innerhalb der Zeitreihenvariation erfasst. Zuletzt verwenden wir eine CumSum-Operation, um verschobene Merkmale zu akkumulieren und eine instationäre Zeitreihe zu erzeugen, die den entdeckten Regelmäßigkeiten entspricht.

Der Glättungsfilter-Aufmerksamkeitsmechanismus filtert zufällige Komponenten heraus und passt die Funktionsskala dynamisch an. Anschließend berechnet das Differenzaufmerksamkeitsmodul interne Zusammenhänge und erfasst die stabile Regelmäßigkeit innerhalb der Zeitreihe auf der entsprechenden Skala. Durch die Kaskadierung dieser beiden Module kann ein Diviner-Block stabile Regelmäßigkeiten innerhalb instationärer Zeitreihen auf einer Skala entdecken. Anschließend stapeln wir Diviner-Blöcke in einer mehrschichtigen Struktur, um mehrskalige Transformationsschichten zu erreichen und mehrskalige stabile Merkmale aus instationären Zeitreihen zu erfassen. Eine solche mehrschichtige Struktur ist in einer Encoder-Decoder-Architektur mit asymmetrischen Eingangslängen für eine effiziente Datennutzung organisiert. Der Encoder benötigt eine lange historische Serie, um Trends einzubetten, und der Decoder empfängt eine relativ kurze Zeitserie. Durch die gegenseitige Aufmerksamkeit zwischen Encoder und Decoder können wir die neuesten Zeitreihen mit relevanten Variationsmustern aus langen historischen Reihen kombinieren und Rückschlüsse auf zukünftige Trends ziehen, wodurch die Berechnungseffizienz verbessert und redundante historische Informationen reduziert werden. Der Punkt ist, dass die jüngste Zeitreihe für die Vorhersage der unmittelbaren Zukunft besser geeignet ist als die Zeitreihe aus der fernen Vergangenheit, bei der die Korrelation über Zeitschritte im Allgemeinen mit der Länge des Intervalls abnimmt53,54,55,56,57. Darüber hinaus entwerfen wir einen Generator, um Vorhersageergebnisse in einem Schritt zu erhalten, um dynamische kumulative Fehlerprobleme zu vermeiden39. Der Generator ist mit CovNet-Freigabeparametern in jedem Zeitschritt basierend auf dem linearen Projektionsgenerator39,58,59 aufgebaut, was Hardwareressourcen spart. Diese Techniken ermöglichen Deep-Learning-Methoden, instationäre Zeitreihen mit mehrskaligen stabilen Merkmalen zu modellieren und Prognoseergebnisse in einem generativen Paradigma zu erzeugen, was einen Versuch darstellt, Probleme bei der Vorhersage langfristiger Zeitreihen anzugehen.

Um die Wirksamkeit der vorgeschlagenen Techniken zu validieren, sammeln wir umfangreiche NPTs von China Unicom. Die NPT-Datensätze umfassen Daten, die alle 15 Minuten für das gesamte Jahr 2021 von drei Gruppen realer großstädtischer Netzwerkverkehrsports {NPT-1, NPT-2, NPT-3} aufgezeichnet wurden, wobei jeder Unterdatensatz {18, 5, 5} Ports. Wir teilen sie chronologisch im Verhältnis 9:1 für Training und Tests auf. Darüber hinaus bereiten wir 16 Netzwerkports für die Parametersuche vor. Die Hauptschwierigkeiten liegen in der expliziten Verschiebung der Verteilung und zahlreichen Ausreißern. Und in diesem Abschnitt wird der umfassende Vergleich unseres Modells mit vorhersagebasierten und wachstumsratenbasierten Modellen bei der Anwendung von 5G-Netzwerkverkehrsprognosen erläutert.

Wir vergleichen Diviner zunächst mit anderen auf Zeitreihenvorhersagen basierenden Methoden und bezeichnen diese Basismodelle aus Gründen der Klarheit als Baselines-T. Baselines-T umfasst die traditionellen Modelle ARIMA19,20 und Prophet26; klassisches maschinelles Lernmodell LSTMa60; Deep-Learning-basierte Modelle Transformer35, Informer39, Autoformer42 und NBeats61. Diese Modelle sind erforderlich, um die gesamte Netzwerkverkehrsreihe {1, 3, 7, 14, 30} Tage vorherzusagen, ausgerichtet auf {96, 288, 672, 1344, 2880} Vorhersagespannen in Tabelle 1, und Inbits ist das Zielmerkmal . Hinsichtlich der Bewertung nimmt zwar die Vorhersagegenauigkeit von MAE, MSE und MASE im Allgemeinen mit den Vorhersageintervallen ab, die Verschlechterungsrate variiert jedoch zwischen den Modellen. Daher führen wir einen exponentiellen Geschwindigkeitsindikator ein, um die Rate der Genauigkeitsverschlechterung zu messen. Konkret ergibt sich bei gegebenen Zeitspannen [t1, t2] und den entsprechenden MSE-, MAE- und MASE-Fehlern Folgendes:

wobei \({\,{{\mbox{dMSE}}}}_{{t}_{1}}^{{t}_{2}},{{{\mbox{dMAE}}}}_{ {t}_{1}}^{{t}_{2}},{{{\mbox{dMASE}}}\,}_{{t}_{1}}^{{t}_{2 }}\in {\mathbb{R}}\). Bezüglich der engen experimentellen Ergebnisse zwischen {NPT-1, NPT-2 und NPT-3} konzentrieren wir uns hauptsächlich auf die Ergebnisse des NPT-1-Datensatzes und die experimentellen Ergebnisse sind in Tabelle 1 zusammengefasst. Es gibt jedoch eine Menge Ausreißer und häufigen Schwankungen im NPT-Datensatz erreicht Diviner eine durchschnittliche MSE-Reduktion von 38,58 % (0,451 → 0,277) und eine durchschnittliche MAE-Reduktion von 20,86 % (0,465 → 0,368) basierend auf dem Stand der Technik. Im Hinblick auf die Skalierbarkeit auf verschiedene Vorhersagespannen hat Diviner einen viel niedrigeren \({\,{{\mbox{dMSE}}}\,}_{1}^{30}\) (4,014 % → 0,750 %) und \({\,{{\mbox{dMAE}}}\,}_{1}^{30}\) (2,343 % → 0,474 %) als der Stand der Technik, der eine leichte Leistungsverschlechterung mit einer wesentlichen Verbesserung aufweist Vorhersagerobustheit, wenn der Vorhersagehorizont länger wird. Die Verschlechterungsraten und die Vorhersageleistung aller Basisansätze sind in der Ergänzungstabelle S1 im Hinblick auf die Platzbeschränkung angegeben.

Die in den Zusatzdaten 1 gezeigten Experimente zu NPT-2 und NPT-3 reproduzieren die obigen Ergebnisse, wobei Diviner eine genaue langfristige Vorhersage des Netzwerkverkehrs unterstützen und den aktuellen Stand der Technik in Bezug auf Genauigkeit und Robustheit bei weitem übertreffen kann. Darüber hinaus erhalten wir die folgenden Ergebnisse, indem wir die umfassenden Leistungen (erhalten durch die durchschnittlichen MASE-Fehler) der mit dem Transformer-Framework erstellten Basislinien sortieren: Diviner > Autoformer > Transformer > Informer. Diese Reihenfolge stimmt mit den in diesen Modellen berücksichtigten instationären Faktoren überein und bestätigt unseren Vorschlag, dass die Einbeziehung von Nichtstationarität die Anpassungsfähigkeit neuronaler Netze zur Modellierung von Zeitreihen fördert und die Modellierung von Nichtstationarität auf mehreren Skalen die Obergrenze der Vorhersagefähigkeiten durchbricht für Deep-Learning-Modelle.

Das zweite Experiment vergleicht Diviner mit zwei anderen industriellen Methoden, die darauf abzielen, die Kapazitätsauslastung von Inbits und Outbits anhand historischer Wachstumsraten vorherzusagen. Das Experiment teilt die gleichen Netzwerk-Port-Verkehrsdaten wie in Experiment 1, während das Aufteilungsverhältnis für einen längeren Vorhersagehorizont chronologisch auf 3:1 geändert wird. Darüber hinaus verwenden wir einen langen Konstruktionszyklus von {30, 60, 90} Tagen (ausgeglichen mit {2880, 5760, 8640} Zeitschritten), um die Gültigkeit solcher wachstumsratenbasierten Methoden für das Gesetz der großen Zahlen sicherzustellen. Hier definieren wir zunächst die Auslastung mathematisch:

Gegeben sei eine feste Bandbreite \(B\in {\mathbb{R}}\) und der Verkehrsfluss der k-ten Konstruktionszyklen \(\widetilde{{{{{{{\bf{X}}}}}}} }}(k)=\left[\begin{array}{cccc}{\tilde{{{{{{{\bf{x}}}}}}}}}}_{kC+1}&{ \tilde{{{{{{{{\bf{x}}}}}}}}}}_{kC+2}&...&{\tilde{{{{{{{{\bf{x }}}}}}}}}}_{(k+1)C}\end{array}\right]\), \(\widetilde{{{{{{{{\bf{X}}}} }}}}}(k)\in {{\mathbb{R}}}^{T\times C}\), wobei \({\tilde{{{{{{{{\bf{x}}} }}}}}}}_{i}\in {{\mathbb{R}}}^{T}\) ist ein Spaltenvektor der Länge T, der die Zeitreihe pro Tag darstellt, und C bezeichnet die Anzahl der Tage in einem Bauzyklus. Dann ist die Kapazitätsauslastung (CU) des k-ten Bauzyklus wie folgt definiert:

wobei \(\,{{\mbox{CU}}}\,(k)\in {\mathbb{R}}\). Wie in der Definition gezeigt, steht die Kapazitätsauslastung in direktem Zusammenhang mit dem Netzwerkverkehr, sodass eine präzise Vorhersage des Netzwerkverkehrs zu einer qualitativ hochwertigen Vorhersage der Kapazitätsauslastung führt. Wir vergleichen die vorgeschlagene Vorhersagemethode mit zwei in der Branche häufig verwendeten Vorhersagemethoden für die gleitende durchschnittliche Wachstumsrate, den additiven und multiplikativen Vorhersagemethoden für die gleitende durchschnittliche Wachstumsrate. Der Übersichtlichkeit halber bezeichnen wir die additive Methode als Baseline-A und die multiplikative Methode als Baseline-M. Baseline-A berechnet eine additive Wachstumsrate mit der Differenz benachbarter Bauzyklen. Angesichts der Kapazitätsauslastung der letzten beiden Bauzyklen CU(k − 1), CU(k − 2) ergibt sich Folgendes:

Baseline-M berechnet eine multiplikative Wachstumsrate mit dem Quotienten benachbarter Bauzyklen. Angesichts der Kapazitätsauslastung der letzten beiden Bauzyklen CU(k − 1), CU(k − 2) ergibt sich Folgendes:

Anders als bei den beiden oben genannten Basislinien berechnen wir die Kapazitätsauslastung des Netzwerks mit der Netzwerkverkehrsprognose. Angesichts des Netzwerkverkehrs der letzten K Konstruktionszyklen \(\widetilde{{{{{{{\bf{X}}}}}}}}}=\left[\begin{array}{ccccccc}{\tilde {{{{{{{\bf{x}}}}}}}}}}_{(kK)C+1}&...&{\tilde{{{{{{{{\bf{ x}}}}}}}}}}_{(k-K+1)C}&...&{\tilde{{{{{{{\bf{x}}}}}}}} }}_{(k-1)C}&...&{\tilde{{{{{{{{\bf{x}}}}}}}}}}_{kC}\end{array} \right]\), wir haben Folgendes:

Wir fassen die experimentellen Ergebnisse in Tabelle 2 zusammen. In Bezug auf die in gezeigten engen experimentellen Ergebnisse zwischen {NPT-1, NPT-2 und NPT-3} konzentrieren wir uns hauptsächlich auf das Ergebnis des NPT-1-Datensatzes, der das größte Netzwerk aufweist Verkehrshäfen. Diviner erreicht eine erhebliche Reduzierung von 31,67 % MAE (0,846 → 0,578) bei Inbits und eine Reduzierung von 24,25 % MAE (0,944 → 0,715) bei Outbits gegenüber Baseline-A. Eine intuitive Erklärung ist, dass die auf Wachstumsraten basierenden Methoden bestimmte historische Merkmale extrahieren, ihnen aber die Anpassungsfähigkeit fehlt. Wir stellen fest, dass Baseline-A eine viel bessere Leistung von 0,045 × durchschnittlichem Inbits-MAE und 0,074 × durchschnittlichem Outbits-MAE gegenüber Baseline-M aufweist. Dieses Ergebnis legt nahe, dass der Netzwerkverkehr eher linear als exponentiell zunimmt. Dennoch bleiben inhärente mehrskalige Variationen der Netzwerkverkehrsreihen bestehen, sodass Diviner immer noch die Baseline-A übertrifft, was die Notwendigkeit der Anwendung von Deep-Learning-Modellen wie Diviner nahelegt, um nichtlineare latente Regelmäßigkeiten im Netzwerkverkehr zu entdecken.

Wenn wir die Ergebnisse dieser beiden Experimente gemeinsam analysieren, stellen wir dar, dass Diviner eine relativ niedrige Abbaurate für eine Vorhersage von 90 Tagen aufweist, \({\,{{\mbox{dMASE}}}\,}_{1}^{ 90}=1,034 \%\). Im Gegensatz dazu beträgt die Verschlechterungsrate des Standes der Technik \({\,{{\mbox{dMASE}}}\,}_{1}^{30}=2,343 \%\) für eine dreimal kürzere Vorhersage Horizont von 30 Tagen. Darüber hinaus kann die vorgeschlagene Methode unter Berücksichtigung verschiedener Netzwerkverkehrsmuster in den bereitgestellten Datensätzen (ca. 50 Ports) ein breites Spektrum instationärer Zeitreihen verarbeiten, was ihre Anwendbarkeit ohne Modifikation bestätigt. Diese Experimente belegen den Erfolg von Diviner bei der Bereitstellung hochwertiger langfristiger Netzwerkverkehrsprognosen und der Verlängerung der effektiven Vorhersagespannen von Deep-Learning-Modellen auf bis zu drei Monate.

Wir validieren unsere Methode anhand von Benchmark-Datensätzen für Wetter (WTH), Stromtransformatortemperatur (ETT), Strom (ECL) und Austausch (Exchange). Wir fassen die experimentellen Ergebnisse in Tabelle 3 zusammen. Wir folgen dem Standardprotokoll und unterteilen sie in Trainings-, Validierungs- und Testsätze in chronologischer Reihenfolge mit einem Verhältnis von 7:1:2, sofern nicht anders angegeben. Aus Platzgründen werden die vollständigen Versuchsergebnisse in den Zusatzdaten 2 gezeigt.

Der WTH-Datensatz42 erfasst 21 meteorologische Indikatoren für Jena 2020, darunter Lufttemperatur und Luftfeuchtigkeit, und WetBulbFarenheit ist das Ziel. Dieser Datensatz ist auf der 10-Minuten-Ebene fein quantifiziert, was bedeutet, dass es 144 Schritte für einen Tag und 4320 Schritte für einen Monat gibt, was die Kapazität von Modellen zur Verarbeitung langer Sequenzen in Frage stellt. Unter allen Baselines weisen NBeats und Informer den geringsten Fehler in Bezug auf MSE- bzw. MAE-Metriken auf. Bei der Erweiterung der Vorhersagespannen stellen wir jedoch einen Kontrast zwischen diesen beiden Modellen fest. Informer verschlechtert sich steil, wenn die Vorhersagespanne von 2016 auf 4032 ansteigt (MAE: 0,417 → 0,853), aber im Gegenteil erzielt NBeats eine Leistungsverbesserung (MAE: 0,635 → 0,434). Wir führen dies auf einen Kompromiss zwischen der Verfolgung von Kontext und Textur zurück. Im kurzfristigen Fall ist Informer gegenüber der Textur im Vorteil. Dennoch muss die Kontextabhängigkeit der Reihe erfasst werden, wenn man bedenkt, dass die Länge der Eingabeverlaufsreihe im Gleichschritt mit der Vorhersagespanne zunehmen sollte und umgekehrt. Was Diviner betrifft, so erreicht es im Vergleich zu Informer und NBeats eine bemerkenswerte durchschnittliche MAE-Reduzierung von 29,30 % (0,488 → 0,345) und eine durchschnittliche MSE-Reduzierung von 41,54 % (0,491 → 0,287). Darüber hinaus erreicht Diviner eine niedrige Abbaurate von \({\,{{\mbox{dMSE}}}\,}_{1}^{30}=0,439 \%\), \({\,{{\mbox {dMAE}}}\,}_{1}^{30}=0,167 \%\) zeigt seine Fähigkeit, historische Informationen innerhalb von Zeitreihen zu nutzen. Die Vorhersageleistungen und Verschlechterungsraten aller Basisansätze sind in der Ergänzungstabelle S2 aufgeführt. Unser Modell kann Kontext und Textur synthetisieren, um sowohl kurzfristige als auch langfristige Fälle auszugleichen und so eine genaue und robuste langfristige Vorhersage sicherzustellen.

Der ETT-Datensatz enthält Zweijahresdaten mit sechs Stromlastmerkmalen aus zwei Landkreisen in China, und die Öltemperatur ist unser Ziel. Das Aufteilungsverhältnis von Training/Validierung/Testsatz beträgt 12/4/4 Monate39. Der ETT-Datensatz ist in zwei separate Datensätze auf der 1-Stunden-Ebene {ETTh1, ETTh2} und der 15-Minuten-Ebene ETTm1 unterteilt. Daher können wir die Leistung der Modelle unter verschiedenen Granularitäten untersuchen, wobei die Vorhersageschritte {96, 288, 672} von ETTm1 mit den Vorhersageschritten {24, 48, 168} von ETTh1 übereinstimmen. Unsere Experimente zeigen, dass Diviner in beiden Fällen die beste Leistung erzielt. Auf Stundenebene übertrifft Diviner jedoch die Basislinien mit dem MSE und MAE, der Autoformer am nächsten kommt (MSE: 0,110 → 0,082, MAE: 0,247 → 0,216). Wenn sich die Granularität auf Stundenebene in einen Fall auf Minutenebene verwandelt, übertrifft Diviner Autoformer bei weitem (MSE: 0,092 → 0,064, MAE: 0,239 → 0,194). Die Vorhersageleistungen und die Granularität ändern sich, wenn die Granularität auf Stundenebene in die Granularität auf Minutenebene aller Basisansätze übergeht, sind in der Ergänzungstabelle S3 aufgeführt. Diese demonstrieren die Fähigkeit des Wahrsagers, Zeitreihen unterschiedlicher Granularität zu verarbeiten. Darüber hinaus ist die Granularität auch ein Ausdruck der Skalierung. Diese Ergebnisse zeigen, dass die Modellierung mehrskaliger Merkmale den Umgang mit Zeitreihen unterschiedlicher Granularität erleichtert.

Der ECL-Datensatz erfasst den zweijährigen Stromverbrauch von 321 Kunden, der aufgrund der fehlenden Daten in Stundenverbrauch umgerechnet wird, wobei MT-320 das Zielmerkmal ist62. Wir prognostizieren unterschiedliche Zeithorizonte von {7, 14, 30, 40} Tagen, abgestimmt auf {168, 336, 720, 960} Vorhersageschritte im Voraus. Als nächstes analysieren wir die experimentellen Ergebnisse anhand der Vorhersagespannen (≤360 als kurzfristige Vorhersage, ≥360 als langfristige Vorhersage). NBeats erreicht die beste Prognoseleistung für die kurzfristige Vorhersage des Stromverbrauchs, während Diviner diese bei der langfristigen Vorhersage übertrifft. Die kurzfristige und langfristige Leistung aller Ansätze ist in der Ergänzungstabelle S4 aufgeführt. Statistisch gesehen übertrifft die vorgeschlagene Methode die beste Basislinie (NBeats), indem sie 17,43 % MSE (0,367 → 0,303), 15,14 % MAE (0,482 → 0,409) bei 720 Schritten voraus und 6,56 % MSE (0,457 → 0,427) bei 9,44 % MAE verringert ( 0,540 → 0,489) bei 960 Schritten voraus. Wir führen dies auf die Skalierbarkeit zurück, bei der verschiedene Modelle konvergieren, um im kurzfristigen Fall eine ähnliche Leistung zu erzielen, ihre Unterschiede jedoch deutlich werden, wenn die Vorhersagespanne länger wird.

Der Börsendatensatz enthält 5-Jahres-Schlusspreise einer Feinunze Gold in den USA, die täglich von 2016 bis 2021 aufgezeichnet wurden. Aufgrund der hochfrequenten Schwankungen des Marktpreises besteht das Vorhersageziel darin, seinen allgemeinen Trend angemessen vorherzusagen (https: //www.lbma.org.uk). Zu diesem Zweck führen wir eine Langzeitvorhersage von {10, 20, 30, 60} Tagen durch. Die experimentellen Ergebnisse zeigen deutlich offensichtliche Leistungseinbußen bei den meisten Basismodellen. Bei einem Verlauf von 90 Tagen können nur Autoformer und Diviner Vorhersagen mit MAE- und MSE-Fehlern von weniger als 1 treffen, wenn die Vorhersagespanne 60 Tage beträgt. Allerdings übertrifft Diviner mit einer durchschnittlichen MSE-Reduktion von 38,94 % (0,588 → 0,359) und einer durchschnittlichen MSE-Reduktion von 22,73 % (0,607 → 0,469) immer noch andere Methoden und erzielt die beste Prognoseleistung. Die Vorhersageleistung aller Basisansätze ist in der Ergänzungstabelle S5 angegeben. Diese Ergebnisse zeigen die Anpassungsfähigkeit von Diviner an die schnelle Entwicklung der Finanzmärkte und seine vernünftige Extrapolation, wenn man bedenkt, dass es im Allgemeinen schwierig ist, das Finanzsystem vorherzusagen.

Der Solardatensatz enthält die 10-Minuten-Daten zur Solarstromproduktion für ein Jahr (2006) von 137 PV-Anlagen im Bundesstaat Alabama, wobei PV-136 das Zielmerkmal ist (http://www.nrel.gov). Da die Menge der täglich produzierten Solarenergie im Allgemeinen stabil ist, ist eine superlangfristige Prognose nicht erforderlich. Daher legen wir den Vorhersagehorizont auf {1, 2, 5, 6} Tage fest, ausgerichtet auf {144, 288, 720, 864} Vorhersageschritte voraus. Darüber hinaus bedeutet diese Eigenschaft der Solarenergie, dass ihre Produktionsreihen tendenziell stationär sind, und daher zeigt der Vergleich der Vorhersageleistungen zwischen verschiedenen Modellen in diesem Datensatz deren grundlegende Reihenmodellierungsfähigkeiten. Unter Berücksichtigung der Tatsache, dass der MASE-Fehler zur Bewertung der Leistung des Modells in verschiedenen Reihen verwendet werden kann, berechnen und sortieren wir konkret den durchschnittlichen MASE-Fehler jedes Modells unter verschiedenen Vorhersagehorizonteinstellungen, um die Fähigkeit zur Zeitreihenmodellierung zu messen (bereitgestellt in der Ergänzungstabelle S6). Die Ergebnisse lauten wie folgt: Diviner > NBeats > Transformer > Autoformer > Informer > LSTM, wobei Diviner alle Transformer-basierten Modelle in den ausgewählten Baselines übertrifft. Vorausgesetzt, dass die Reihendaten nicht so instationär sind, sind die Vorteile der Autoformer-Modellierung der Nichtstationarität von Zeitreihen nicht offensichtlich. Gleichzeitig ist die Erfassung stabiler lang- und kurzfristiger Abhängigkeiten weiterhin effektiv.

Der Verkehrsdatensatz enthält stündliche 2-Jahres-Straßenbelegungsraten (2015–2016), die von 862 Sensoren auf Autobahnen in der San Francisco Bay Area vom kalifornischen Verkehrsministerium erfasst wurden, wobei Sensor 861 das Zielmerkmal ist (http://pems.dot). ca.gov). Der Vorhersagehorizont ist auf {7, 14, 30, 40} Tage festgelegt, ausgerichtet auf {168, 336, 720, 960} Vorhersageschritte im Voraus. Da die Straßenbelegungsrate tendenziell einem wöchentlichen Zyklus unterliegt, verwenden wir diesen Datensatz, um die Fähigkeit verschiedener Netzwerke zur Modellierung des zeitlichen Zyklus zu vergleichen. Beim Vergleich konzentrieren wir uns hauptsächlich auf die folgenden zwei Gruppen von Deep-Learning-Modellen: Gruppe-1 berücksichtigt die instationäre Spezialisierung von Zeitreihen (Diviner, Autoformer) und Gruppe-2 verwendet keine zeitreihenspezifischen Komponenten (Transformer, Informer, LSTMa). Wir stellen fest, dass Gruppe 1 gegenüber Gruppe 2 eine deutliche Leistungsverbesserung erzielt, was auf die Notwendigkeit einer Modellierung der Nichtstationarität schließen lässt. Das vorgeschlagene Diviner-Modell erreicht eine MAE-Reduzierung von 27,64 % (0,604 → 0,437) gegenüber dem Transformer-Modell, wenn es um die Prognose der Straßenbelegungsraten für 30 Tage geht. Anschließend führen wir einen gruppeninternen Vergleich für Gruppe 1 durch, wobei Diviner im Vergleich zu Autoformer immer noch eine durchschnittliche MAE-Reduktion von 35,37 % (0,523 → 0,338) erzielt. Die Vorhersageleistung aller Ansätze ist in der Ergänzungstabelle S7 angegeben. Wir führen dies auf Diviners mehrskalige Modellierung der Nichtstationarität zurück, während die Trend-Saison-Zerlegung von Autoformer lediglich Zeitreihenvariationen auf bestimmten Skalen widerspiegelt. Diese experimentellen Ergebnisse zeigen, dass Diviner in der Lage ist, Zeitreihendaten mit Zyklen vorherzusagen.

Wir untersuchen das Problem der langfristigen Vorhersage des 5G-Netzwerkverkehrs, indem wir die Nichtstationarität mit Deep-Learning-Techniken modellieren. Obwohl einige Fachliteratur63,64,65 in der Anfangsphase argumentiert, dass die probabilistische Verkehrsprognose unter Unsicherheit besser für den variierenden Netzwerkverkehr geeignet ist als eine konkrete Prognose, die durch Zeitreihenmodelle erstellt wird, haben die probabilistische Verkehrsprognose und die konkrete Verkehrsprognose dieselben historischen Daten Informationen im Wesentlichen. Darüber hinaus hat die Entwicklung von Zeitreihen-Prognosetechniken in diesen Jahren zu einer Reihe von Arbeiten geführt, in denen Zeitreihen-Prognosetechniken für praktische Anwendungen wie Bandbreitenmanagement14,15, Ressourcenzuweisung16 und Ressourcenbereitstellung17 eingesetzt wurden, bei denen die auf Zeitreihenvorhersage basierenden Methoden detaillierte Ergebnisse liefern können Prognose des Netzwerkverkehrs. Bestehende Methoden zur Vorhersage von Zeitreihen erleiden jedoch einen erheblichen Leistungsabfall, da der langfristige Vorhersagehorizont die Instationarität von Zeitreihen offenlegt, was mehrere Herausforderungen mit sich bringt: (a) zeitliche Variationen auf mehreren Skalen. (b) Zufällige Faktoren. (c) Datenverteilungsverschiebung.

Daher versucht dieser Artikel, das Problem einer präzisen Langzeitvorhersage für instationäre Zeitreihen anzugehen. Wir gehen von der grundlegenden Eigenschaft der Nichtstationarität von Zeitreihen aus und führen tief stationäre Prozesse in ein neuronales Netzwerk ein, das mehrskalige stabile Regelmäßigkeiten innerhalb instationärer Zeitreihen modelliert. Wir argumentieren, dass die Erfassung der stabilen Merkmale ein Rezept für die Erstellung instationärer Prognosen ist, die historischen Regelmäßigkeiten entsprechen. Die stabilen Merkmale ermöglichen es Netzwerken, den latenten Raum von Zeitreihen einzuschränken, der sich mit unterschiedlichen Verteilungsproblemen befasst. Umfangreiche Experimente zur Netzwerkverkehrsvorhersage und anderen realen Szenarien zeigen seine Fortschritte gegenüber bestehenden vorhersagebasierten Modellen. Seine Vorteile lassen sich wie folgt zusammenfassen. (a) Diviner bringt eine deutliche Verbesserung sowohl der lang- als auch der kurzfristigen Vorhersage und erreicht eine Leistung auf dem neuesten Stand der Technik. (b) Diviner kann unabhängig von der Auswahl der Vorhersagespanne und -granularität eine robuste Leistung erbringen und weist ein großes Potenzial für langfristige Vorhersagen auf. (c) Diviner pflegt eine starke Verallgemeinerung in verschiedenen Bereichen. Die Leistung der meisten Baselines kann in einigen Bereichen stark nachlassen. Im Gegensatz dazu zeichnet sich unser Modell durch eine konstante Leistung bei jedem Benchmark aus.

Diese Arbeit untersucht eine Möglichkeit, detaillierte und präzise langfristige 5G-Netzwerkverkehrsprognosen zu erhalten, die zur Berechnung der Zeit verwendet werden können, zu der der Netzwerkverkehr die Kapazität überlasten könnte, und die Betreiber dabei unterstützt, Netzwerkaufbaupläne Monate im Voraus zu formulieren. Darüber hinaus generiert Diviner langfristige Netzwerkverkehrsprognosen auf Minutenebene und erleichtert so seine breiteren Anwendungen für die Ressourcenbereitstellung, -zuweisung und -überwachung. Entscheidungsträger können langfristige Vorhersagen nutzen, um Netzwerkressourcen zuzuweisen und zu optimieren. Eine weitere praktische Anwendung besteht darin, ein automatisches Netzwerkstatusüberwachungssystem zu schaffen, das automatisch einen Alarm auslöst, wenn der tatsächliche Netzwerkverkehr einen zulässigen Bereich um die Vorhersagen überschreitet. Dieses System unterstützt gezielte Frühwarnungen auf Portebene und unterstützt Mitarbeiter bei der rechtzeitigen Fehlerbehebung, was angesichts der zig Millionen online laufenden Netzwerkports zu einer erheblichen Effizienzsteigerung führen kann. Zusätzlich zu 5G-Netzwerken haben wir unsere Lösung auf breitere technische Bereiche wie Elektrizität, Klima, Steuerung, Wirtschaft, Energie und Transport ausgeweitet. Die Vorhersage der Öltemperatur kann dazu beitragen, eine Überhitzung des Transformators zu verhindern, die sich auf die Isolationslebensdauer des Transformators auswirkt und einen ordnungsgemäßen Betrieb gewährleistet66,67. Darüber hinaus hilft die langfristige meteorologische Vorhersage bei der Auswahl und Aussaat von Nutzpflanzen in der Landwirtschaft. Auf diese Weise können wir unbemerkte Regelmäßigkeiten in historischen Seriendaten entdecken, die Chancen für traditionelle Industrien eröffnen könnten.

Eine Einschränkung unseres vorgeschlagenen Modells besteht darin, dass es unter kritischen Übergängen von Datenmustern leidet. Wir führen dies auf externe Faktoren zurück, deren Informationen in der Regel nicht in den Messdaten enthalten sind53,55,68. Unsere Methode ist hilfreich bei der Entdeckung intrinsischer Regelmäßigkeiten innerhalb der Zeitreihe, kann jedoch keine Muster vorhersagen, die zuvor in der realen Welt nicht aufgezeichnet wurden. Alternativ können wir dynamische Netzwerkmethoden69,70,71 verwenden, um solche kritischen Übergänge in der Zeitreihe zu erkennen53. Darüber hinaus könnte die Leistung von Diviner mit der anderer Deep-Learning-Modelle vergleichbar sein, wenn einige Verlaufsreihen vorliegen oder eine kurzfristige Vorhersage vorliegt. Ersteres enthält nicht genügend Informationen, um genutzt zu werden, und die kurzfristige Vorhersage erfordert eine größere Skalierbarkeit des Problems, wohingegen die Vorteile unseres Modells in langfristigen Prognoseszenarien deutlich werden.

Wir bezeichnen die ursprüngliche Form der Zeitreihendaten als \({{{{{{\bf{X}}}}}}}}=\left[\begin{array}{cccc}{x}_{ 1}&{x}_{2}&...&{x}_{n}\end{array}\right],{x}_{i}\in {\mathbb{R}}\). Die ursprünglichen Zeitreihendaten X werden in eine Matrixform wie folgt umgeformt: {\tilde{{{{{{{{\bf{x}}}}}}}}}}_{1}&{\tilde{{{{{{{{\bf{x}}}}} }}}}}_{2}&...&{\tilde{{{{{{{{\bf{x}}}}}}}}}}_{K}\end{array}\right ]\), wobei \({\tilde{{{{{{{{\bf{x}}}}}}}}}}_{i}\) ein Vektor der Länge T mit den Zeitreihendaten pro ist Tag/Woche/Monat/Jahr, K bezeichnet die Anzahl der Tage/Wochen/Monate/Jahre, \({\tilde{{{{{{{{\bf{x}}}}}}}}}_{ i}\in {{\mathbb{R}}}^{T}\). Danach können wir das saisonale Muster als \({\tilde{{{{{{{{\bf{x}}}}}}}}}}}_{i}\) darstellen und seine Variation zwischen benachbarten Zeiten verwenden Schritte zur Modellierung von Trends, wie folgt dargestellt:

wobei \(\Delta {\widetilde{{{{{{{\rm{s}}}}}}}}}}_{t}\) die Änderung des saisonalen Musters bezeichnet, \(\Delta {\ Widetilde{{{{{{{{\rm{s}}}}}}}}}}_{t}\in {{\mathbb{R}}}^{T}\). Die Verschiebung spiegelt die Variation zwischen kleinen Zeitschritten wider, aber wenn sich eine solche Variation (Verschiebung) über einen längeren Zeitraum aufbaut, kommt der Trend d zum Vorschein. Es kann wie folgt erreicht werden: \(\mathop{\sum }\nolimits_{t = {t}_{1}}^{{t}_{2}-1}\Delta {\widetilde{{{{{{{ {\rm{s}}}}}}}}}}_{t}\). Daher können wir Trends modellieren, indem wir die lang- und kurzfristigen Abhängigkeiten von Verschiebungen zwischen verschiedenen Zeitschritten erfassen.

Als nächstes führen wir einen Glättungsfilter-Aufmerksamkeitsmechanismus ein, um mehrskalige Transformationsschichten zu erstellen. Zur Erfassung und Verknüpfung von Verschiebungen der entsprechenden Skala ist ein Differenzaufmerksamkeitsmodul montiert. Diese Mechanismen sorgen dafür, dass unser Diviner mehrskalige Variationen in instationären Zeitreihen erfasst. Die mathematische Beschreibung ist unten aufgeführt.

Angesichts der Zeitreihendaten X transformieren wir X in \(\widetilde{{{{{{{\bf{X}}}}}}}}}=\left[\begin{array}{cccc}{\ Tilde{{{{{{{{\bf{x}}}}}}}}}}_{1}&{\tilde{{{{{{{{\bf{x}}}}}}} }}}_{2}&...&{\tilde{{{{{{{{\bf{x}}}}}}}}}}_{K}\end{array}\right]\ ), wobei \({\tilde{{{{{{{\bf{x}}}}}}}}}}_{i}\) ein Vektor der Länge T mit den Zeitreihendaten pro Tag ist ( saisonal) und K bezeichnet die Anzahl der Tage, \({\tilde{{{{{{{\bf{x}}}}}}}}}}_{i}\in {{\mathbb{R }}}^{T}\), \(\widetilde{{{{{{{\bf{X}}}}}}}}}\in {{\mathbb{R}}}^{T\ mal K}\). Dann konstruieren wir den dualen Eingang für Diviner. Da wir feststellen, dass Diviner eine Encoder-Decoder-Architektur verwendet, konstruieren wir \({{{{{{{{\bf{X}}}}}}}}}_{en}^{in}\) für Encoder und \( {{{{{{{\bf{X}}}}}}}}}_{de}^{in}\) für Decoder, wobei \({{{{{{{{\bf{X} }}}}}}}}_{en}^{in}=\left[\begin{array}{cccc}{\tilde{{{{{{{\bf{x}}}}}}} }}}_{1}&{\tilde{{{{{{{{\bf{x}}}}}}}}}}_{2}&...&{\tilde{{{{{ {{{\bf{x}}}}}}}}}}_{K}\end{array}\right]\), \({{{{{{{{\bf{X}}}} }}}}}_{de}^{in}=\left[\begin{array}{cccc}{\tilde{{{{{{{\bf{x}}}}}}}}}} _{K-{K}_{de}+1}&{\tilde{{{{{{{\bf{x}}}}}}}}}}_{K-{K}_{de }}&...&{\tilde{{{{{{{\bf{x}}}}}}}}}_{K}\end{array}\right]\) und \( {{{{{{{\bf{X}}}}}}}}}_{en}^{in}\in {{\mathbb{R}}}^{K}\), \({ {{{{{{\bf{X}}}}}}}}}_{de}^{in}\in {{\mathbb{R}}}^{{K}_{de}}\ ). Das bedeutet, dass \({{{{{{{{\bf{X}}}}}}}}}_{en}^{in}\) alle Elemente aus \(\widetilde{{{{{{ {{\bf{X}}}}}}}}}\) while \({{{{{{{{\bf{X}}}}}}}}}_{de}^{in}\ ) benötigt nur die neuesten Kde-Elemente. Danach eine vollständig verbundene Schicht auf \({{{{{{{{\bf{X}}}}}}}}_{en}^{in}\) und \({{{{{{ {{\bf{X}}}}}}}}}_{de}^{in}\) wird verwendet, um \({{{{{{{{\bf{E}}}}}}} zu erhalten }}_{en}^{in}\) und \({{{{{{{{\bf{E}}}}}}}}}_{de}^{in}\), wobei \( {{{{{{{{\bf{E}}}}}}}}}_{en}^{in}\in {{\mathbb{R}}}^{{d}_{m}\ mal K}\), \({{{{{{{{\bf{E}}}}}}}}_{de}^{in}\in {{\mathbb{R}}}^{ {d}_{m}\times {K}_{de}}\) und dm bezeichnet die Modelldimension.

Inspiriert durch die Nadaraya-Watson-Regression51,52, die benachbarte Punkte näher zusammenbringt, führen wir den Glättungsfilter-Aufmerksamkeitsmechanismus mit einer lernbaren Kernelfunktion und einer selbstmaskierten Architektur ein, wobei ersterer ähnliche Elemente näher zusammenbringt, um die Zufallskomponente herauszufiltern und die Nichtkomponente anzupassen -stationäre Daten zu stabilen Merkmalen, und der Buchstabe reduziert Ausreißer. Der Glättungsfilter-Aufmerksamkeitsmechanismus wird basierend auf der Eingabe \({{{{{{{\bf{E}}}}}}}}=\left[\begin{array}{cccc}{{{{{{ {{\boldsymbol{\xi }}}}}}}}}_{1}&{{{{{{{{\boldsymbol{\xi }}}}}}}}}_{2}&.. .&{{{{{{{{\boldsymbol{\xi }}}}}}}}}_{{K}_{in}}\end{array}\right]\), wobei \({{ {{{{{{\boldsymbol{\xi }}}}}}}}}_{i}\in {{\mathbb{R}}}^{{d}_{m}}\), E ist der allgemeine Verweis auf den Eingang jeder Schicht, für Encoder Kin = K und für Decoder Kin = Kde. Insbesondere \({{{{{{{{\bf{E}}}}}}}}_{en}^{in}\) und \({{{{{{{{\bf{E }}}}}}}}}_{de}^{in}\) sind jeweils die Eingaben der ersten Encoder- und Decoderschicht. Der Berechnungsablauf stellt sich wie folgt dar:

wobei \({{{{{{{{\bf{w}}}}}}}}}_{i}\in {{\mathbb{R}}}^{{d}_{m}}, i\in [1,{K}_{in}]\) bezeichnet die lernbaren Parameter, ⊙ bezeichnet das elementweise Vielfache, (⋅)2 bezeichnet das elementweise Quadrat und das Quadrat eines Vektors stellt hier die Element- kluges Quadrat. Um die Darstellung zu vereinfachen, weisen wir den Aufmerksamkeitsmechanismus des Glättungsfilters als Smoothing-Filter(E) zu und bezeichnen seine Ausgabe als Hs. Bevor wir unser Differenz-Aufmerksamkeitsmodul vorstellen, definieren wir zunächst die Differenz zwischen einer Matrix und ihrer Umkehroperation CumSum.

Gegeben sei eine Matrix \({{{{{{{\bf{M}}}}}}}}\in {{\mathbb{R}}}^{m\times n}\, \({{{ {{{{\bf{M}}}}}}}}=\left[\begin{array}{cccc}{{{{{{{\bf{m}}}}}}}}_ {1}&{{{{{{{{\bf{m}}}}}}}}}_{2}&...&{{{{{{{{\bf{m}}}} }}}}}_{n}\end{array}\right]\), ist die Differenz von M definiert als:

wobei \(\Delta {{{{{{{{\bf{m}}}}}}}}_{i}={{{{{{{{\bf{m}}}}}}} }}_{i+1}-{{{{{{{{\bf{m}}}}}}}}_{i},\Delta {{{{{{{{\bf{m} }}}}}}}}_{i}\in {{\mathbb{R}}}^{m},i\in [1,n)\) und wir füllen Δmn mit Δmn−1 auf, um a festzuhalten Länge vor und nach der Differenzoperation. Die CumSum-Operation Σ in Richtung M ist definiert als:

wobei \(\Sigma {{{{{{{\bf{m}}}}}}}}_{i}=\mathop{\sum }\nolimits_{j = 1}^{i}{{ {{{{{{\bf{m}}}}}}}}}_{j},\Sigma {{{{{{{{\bf{m}}}}}}}}}_{i }\in {{\mathbb{R}}}^{m}.\) Das Differential-Aufmerksamkeitsmodul kann intuitiv als ein Aufmerksamkeitsmechanismus angesehen werden, der zwischen diesen beiden Operationen eingefügt ist und mathematisch wie folgt beschrieben wird.

Die Eingabe dieses Modells umfasst drei Elemente: Q, K, V. (Q, K, V) variiert zwischen Encoder und Decoder, nämlich \(({{{{{{{\bf{H}}} }}}}}}_{s}^{en},{{{{{{{{\bf{H}}}}}}}}}_{s}^{en},{{{{{ {{{\bf{H}}}}}}}}}_{s}^{en})\) für den Encoder und \(({{{{{{{{\bf{H}}}} }}}}}_{s}^{de},{{{{{{{\bf{E}}}}}}}}}_{en}^{out},{{{{{{ {{\bf{E}}}}}}}}}_{en}^{out})\) für den Decoder, wobei \({{{{{{{{\bf{E}}}}} }}}}_{en}^{out}\) ist das eingebettete Ergebnis des endgültigen Encoderblocks (im Pseudocode zugewiesen), \({{{{{{{{\bf{H}}}} }}}}}_{s}^{en}\in {{\mathbb{R}}}^{{d}_{m}\times K},{{{{{{{{\bf{H }}}}}}}}}_{s}^{de}\in {{\mathbb{R}}}^{{d}_{m}\times {K}_{de}},{{ {{{{{{\bf{E}}}}}}}}}_{en}^{out}\in {{\mathbb{R}}}^{{d}_{m}\times K }\).

wobei \({{{{{{{{\bf{W}}}}}}}}}_{q}^{(i)}\in {{\mathbb{R}}}^{{d} _{a}\times {d}_{m}}\), \({{{{{{{{\bf{W}}}}}}}}}_{k}^{(i)} \in {{\mathbb{R}}}^{{d}_{attn}\times {d}_{m}}\), \({{{{{{{{\bf{W}}} }}}}}}_{v}^{(i)}\in {{\mathbb{R}}}^{{d}_{a}\times {d}_{m}}\), \ ({{{{{{{{\bf{W}}}}}}}}}_{s}\in {{\mathbb{R}}}^{{d}_{m}\times h{ d}_{a}}\), \({{{{{{{\bf{D}}}}}}}}\in {{\mathbb{R}}}^{{d}_{m }\times K}\), i ∈ [1, h], h bezeichnet die Anzahl der parallelen Aufmerksamkeiten. \(\left[\begin{array}{c}\cdot \end{array}\right]\) bezeichnet die Verkettung der Matrix, \({\widetilde{{{{{{{{\bf{V}} }}}}}}}}_{s}^{(i)}\) bezeichnet die tiefe Verschiebung und D bezeichnet den tiefen Trend. Wir bezeichnen das differenzielle Aufmerksamkeitsmodul als differenzielle Aufmerksamkeit (Q, K, V), um die Darstellung zu vereinfachen.

Die endgültige Ausgabe von Diviner wird durch Faltungsschichten berechnet, die als Ein-Schritt-Generator bezeichnet werden und die Ausgabe der endgültigen Decoderschicht \({{{{{{{\bf{E}}}}}}}}} übernehmen. _{de}^{out}\) als Eingabe:

wobei \({{{{{{{{\bf{R}}}}}}}}}_{predict}\in {{\mathbb{R}}}^{{d}_{m}\times {K}_{r}},{{{{{{{\bf{E}}}}}}}}_{de}^{(M)}\in {{\mathbb{R}} }^{{d}_{m}\times {K}_{de}}\), ConvNet ist ein mehrschichtiges Vollfaltungsnetz, dessen Eingangs- und Ausgangskanäle die Eingangslänge des Decoders Kde und die Vorhersagelänge Kr sind, jeweils.

Zur Vereinfachung der Reproduktion fassen wir den Rahmen unseres Wahrsagers im folgenden Pseudocode zusammen:

Die Datensätze, die unsere Arbeit unterstützen, wurden unter https://doi.org/10.5281/zenodo.7827077 hinterlegt. Allerdings gelten Einschränkungen hinsichtlich der Verfügbarkeit von NPT-Daten, die für die aktuelle Studie unter Lizenz verwendet wurden und daher nicht öffentlich verfügbar sind. Daten sind jedoch auf begründete Anfrage und mit Genehmigung des China Information Technology Designing Consulting Institute bei den Autoren erhältlich.

Codes sind unter https://doi.org/10.5281/zenodo.7825740 verfügbar.

Jovović, I., Husnjak, S., Forenbacher, I. & Maček, S. Innovative Anwendung von 5G und Blockchain-Technologie in der Industrie 4.0. EAI-genehmigte Trans. Ind. Netw. Intel. Syst. 6, e4 (2019).

Osseiran, A. et al. Szenarien für die mobile und drahtlose 5G-Kommunikation: die Vision des METIS-Projekts. IEEE-Komm. Mag. 52, 26–35 (2014).

Artikel Google Scholar

Wu, G., Yang, C., Li, S. & Li, GY Jüngste Fortschritte bei energieeffizienten Netzwerken und deren Anwendung in 5G-Systemen. IEEE Wirel. Komm. 22, 145–151 (2015).

Artikel Google Scholar

Hui, H., Ding, Y., Shi, Q., Li, F. & Yan, J. 5G-netzwerkbasiertes Internet der Dinge für Demand Response im Smart Grid: Eine Umfrage zum Anwendungspotenzial. Appl. Energie 257, 113972 (2020).

Artikel Google Scholar

Johansson, NA, Wang, Y., Eriksson, E. & Hessler, M. Funkzugang für äußerst zuverlässige 5G-Kommunikation mit geringer Latenz. in Proceedings of IEEE International Conference on Communication Workshop, 1184–1189 (2015).

Yilmaz, O., Wang, Y., Johansson, NA, Brahmi, N. & Sachs, J. Analyse der äußerst zuverlässigen 5G-Kommunikation mit geringer Latenz für einen Anwendungsfall der Fabrikautomation. in Proceedings of IEEE International Conference on Communication Workshop (2015).

Fernández, ML, Huertas, CA, Gil, PM, García, CFJ & Martínez, PG Dynamisches Management eines Deep-Learning-basierten Anomalieerkennungssystems für 5G-Netzwerke. J. Ambient Intell. Summen. Berechnen. 10, 3083–3097 (2019).

Artikel Google Scholar

O'Connell, E., Moore, D. & Newe, T. Herausforderungen im Zusammenhang mit der Implementierung von 5G in der Fertigung. Telekommunikation 1, 48–67 (2020).

Artikel Google Scholar

Oughton, EJ, Frias, Z., van der Gaast, S. & van der Berg, R. Bewertung der Kapazität, Abdeckung und Kosten von 5G-Infrastrukturstrategien: Analyse der Niederlande. Telemat. Informieren. 37, 50–69 (2019).

Artikel Google Scholar

Gupta, A. & Jha, RK Eine Umfrage zum 5g-Netzwerk: Architektur und neue Technologien. IEEE Access 3, 1206–1232 (2015).

Artikel Google Scholar

Wang, C. et al. Zellulararchitektur und Schlüsseltechnologien für drahtlose 5G-Kommunikationsnetze. IEEE-Komm. Mag. 52, 122–130 (2014).

Artikel Google Scholar

Li, QC, Niu, H., Papathanassiou, AT & Wu, G. 5G-Netzwerkkapazität: Schlüsselelemente und Technologien. IEEE-Fahrzeugtechnologie. Mag. 9, 71–78 (2014).

Artikel Google Scholar

Liu, H. Forschung zur Ressourcenzuweisungs- und Optimierungstechnologie im 5G-Kommunikationsnetzwerk. In Proceedings of International Conference on Consumer Electronics and Computer Engineering, 209–212 (2022).

Yoo, W. & Sim, A. Zeitreihenvorhersagemodellierung für Netzwerkmessungen mit hoher Bandbreite. J. Grid Comput. 14, 463–476 (2016).

Artikel Google Scholar

Wei, Y., Wang, J. & Wang, C. Ein auf Verkehrsvorhersage basierender Bandbreitenverwaltungsalgorithmus einer zukünftigen Internetarchitektur. in Proceedings of International Conference on Intelligent Networks and Intelligent Systems, 560–563 (2010).

Garroppo, RG, Giordano, S., Pagano, M. & Procissi, G. Zur Verkehrsvorhersage für die Ressourcenzuteilung: ein auf der Tschebyscheff-Grenze basierendes Zuteilungsschema. Berechnen. Komm. 31, 3741–3751 (2008).

Artikel Google Scholar

Bega, D., Gramaglia, M., Fiore, M., Banchs, A. & Costa-Pérez, X. Deepcog: Optimierung der Ressourcenbereitstellung beim Network Slicing mit KI-basierter Kapazitätsprognose. IEEE J. Sel. Gemeinschaftsbereiche. 38, 361–376 (2019).

Artikel Google Scholar

Hassidim, A., Raz, D., Segalov, M. & Shaqed, A. Netzwerknutzung: die Flussansicht. in Proceedings of 2013 IEEE INFOCOM, 1429–1437 (2013).

Box, G., Jenkins, G., Reinsel, G. & Ljung, G. Time Series Analysis: Forecasting and Control (John Wiley & Sons, America, 2015).

Box, GE & Jenkins, GM Einige aktuelle Fortschritte in der Prognose und Steuerung. JR-Stat. Soc. C 17, 91–109 (1968).

MathSciNet Google Scholar

Moayedi, H. & Masnadi-Shirazi, M. Arima-Modell zur Netzwerkverkehrsvorhersage und Anomalieerkennung. in Proceedings of International Symposium on Information Technology, vol. 4, 1–6 (2008).

Azari, A., Papapetrou, P., Denic, S. & Peters, G. Vorhersage und Klassifizierung des Mobilfunkverkehrs: Eine vergleichende Bewertung von lstm und arima. In Proceedings of International Conference on Discovery Science, 129-144 (2019).

Tikunov, D. & Nishimura, T. Verkehrsvorhersage für Mobilfunknetze mithilfe der exponentiellen Glättung von Holt-Winter. In Proceedings of International Conference on Software, Telecommunications and Computer Networks, 1–5 (2007).

Shu, Y., Yu, M., Yang, O., Liu, J. & Feng, H. Drahtlose Verkehrsmodellierung und -vorhersage unter Verwendung saisonaler Arima-Modelle. IEICE Trans. Komm. 88, 3992–3999 (2005).

Artikel Google Scholar

Rafsanjani, MK, Rezaei, A., Shahraki, A. & Saeid, AB Qarima: ein neuer Ansatz zur Vorhersage in der Warteschlangentheorie. Appl. Mathematik. Computer. Rev. 244, 514–525 (2014).

MathSciNet MATH Google Scholar

Taylor, S. & Letham, B. Prognosen im Maßstab. Bin. Stat. 72, 37–45 (2018).

Artikel MathSciNet MATH Google Scholar

LeCun, Y., Bengio, Y. & Hinton, G. Deep Learning. Natur 521, 436–444 (2015).

Artikel Google Scholar

Hochreiter, S. & Schmidhuber, J. Langes Kurzzeitgedächtnis. Neuronale Berechnung. 9, 1735–1780 (1997).

Artikel Google Scholar

Salinas, D., Flunkert, V., Gasthaus, J. & Januschowski, T. DeepAR: Wahrscheinlichkeitsprognose mit autoregressiven rekurrenten Netzwerken. Int. J. Prognose. 36, 1181–1191 (2020).

Artikel Google Scholar

Qin, Y. et al. Ein zweistufiges aufmerksamkeitsbasiertes wiederkehrendes neuronales Netzwerk zur Zeitreihenvorhersage. in Proceedings of International Joint Conference on Artificial Intelligence, 2627–2633 (2017).

Mona, S., Mazin, E., Stefan, L. & Maja, R. Modellierung unregelmäßiger Zeitreihen mit kontinuierlich wiederkehrenden Einheiten. Proz. Int. Konf. Mach. Lernen. 162, 19388–19405 (2022).

Google Scholar

Kashif, R., Calvin, S., Ingmar, S. & Roland, V. Autoregressive Denoising-Diffusionsmodelle für multivariate probabilistische Zeitreihenprognosen. in Proceedings of International Conference on Machine Learning, vol. 139, 8857–8868 (2021).

Alasdair, T., Alexander, PM, Cheng, SO & Xie, L. Radflow: Ein wiederkehrendes, aggregiertes und zerlegbares Modell für Zeitreihennetzwerke. in Proceedings of International World Wide Web Conference, 730–742 (2021).

Ling, F. et al. Maschinelles Lernen mit mehreren Aufgaben verbessert die mehrsaisonale Vorhersage des Dipols im Indischen Ozean. Nat. Komm. 13, 1–9 (2022).

Artikel Google Scholar

Vaswani, A. et al. Aufmerksamkeit ist alles, was Sie brauchen. Proz. Annu. Konf. Neuronale Inf. Verfahren. Syst. 30, 5998–6008 (2017).

Google Scholar

Alexandre, D., Étienne, M. & Nicolas, C. TACTiS: transformator-aufmerksame Copulas für Zeitreihen. in Proceedings of International Conference on Machine Learning, vol. 162, 5447–5493 (2022).

Tung, N. & Aditya, G. Transformer neuronale Prozesse: Unsicherheitsbewusstes Meta-Lernen durch Sequenzmodellierung. in Proceedings of International Conference on Machine Learning, vol. 162, 16569–16594 (2022).

Wen, Q. et al. Transformatoren in Zeitreihen: Eine Umfrage. AdRR (2022).

Zhou, H. et al. Informer: Mehr als ein effizienter Transformator für die Vorhersage langer Zeitreihen. in Proceedings of AAAI Conference on Artificial Intelligence (2021).

Kitaev, N., Kaiser, L. & Levskaya, A. Reformer: der effiziente Transformator. in Proceedings of International Conference on Learning Representations (2019).

Li, S. et al. Verbesserung der Lokalität und Überwindung des Speicherengpasses bei der Zeitreihenvorhersage von Transformern. in Proceedings of the 33th Annual Conference on Neural Information Processing Systems vol. 32, 5244–5254 (2019).

Wu, H., Xu, J., Wang, J. & Long, M. Autoformer: Zerlegungstransformatoren mit Autokorrelation für langfristige Reihenprognosen. in Proceedings of Annual Conference on Neural Information Processing Systems, vol. 34, 22419–22430 (2021).

Zhou, T. et al. Fedformer: Frequenzverstärkter zerlegter Transformator für langfristige Serienprognosen. in Proceedings of International Conference on Machine Learning, vol. 162, 27268–27286 (2022).

Liu, S. et al. Pyraformer: Pyramidenaufmerksamkeit mit geringer Komplexität für die Modellierung und Vorhersage langfristiger Zeitreihen. in Proceedings of International Conference on Learning Representations (ICLR) (2021).

Liu, M. et al. SCINet: Zeitreihenmodellierung und -vorhersage mit Stichprobenfaltung und Interaktion. in Proceedings of Annual Conference on Neural Information Processing Systems (2022).

Wang, Z. et al. Lernen latenter saisonaler Trenddarstellungen für Zeitreihenprognosen. in Proceedings of Annual Conference on Neural Information Processing Systems (2022).

Xie, C. et al. Trendanalyse und Prognose der täglich gemeldeten Inzidenz von Hand-, Maul- und Klauenseuchen in Hubei, China, nach dem Prophetenmodell. Wissenschaft. Rep. 11, 1–8 (2021).

Google Scholar

Cox, DR & Miller, HD Die Theorie stochastischer Prozesse (Routledge, London, 2017).

Dette, H. & Wu, W. Vorhersage in lokal stationären Zeitreihen. J. Bus. Wirtschaft. Stat. 40, 370–381 (2022).

Artikel MathSciNet Google Scholar

Wold, HO Zur Vorhersage in stationären Zeitreihen. Ann. Mathematik. Stat. 19, 558–567 (1948).

Artikel MathSciNet MATH Google Scholar

Watson, GS Glatte Regressionsanalyse. Sankhyā: The Indian Journal of Statistics, Reihe A359–372 (1964).

Nadaraya, EA Zur Schätzung der Regression. Theorie wahrscheinlich. Appl. 9, 141–142 (1964).

Artikel MATH Google Scholar

Chen, P., Liu, R., Aihara, K. & Chen, L. Autoreservoir-Computing für Multistep-Ahead-Vorhersage basierend auf der raumzeitlichen Informationstransformation. Nat. Komm. 11, 1–15 (2020).

Google Scholar

Lu, J., Wang, Z., Cao, J., Ho, DW & Kurths, J. Pinning impulsive Stabilisierung nichtlinearer dynamischer Netzwerke mit zeitlich variierender Verzögerung. Int. J. Bifurc. Chaos 22, 1250176 (2012).

Artikel MATH Google Scholar

Malik, N., Marwan, N., Zou, Y., Mucha, PJ & Kurths, J. Ähnlichkeitsfluktuation zur Erkennung von Übergängen zwischen unterschiedlichen dynamischen Regimen in kurzen Zeitreihen. Physik. Rev. E 89, 062908 (2014).

Artikel Google Scholar

Yang, R., Lai, Y. & Grebogi, C. Die Zukunft vorhersagen: Ist es für adiabatisch zeitlich variierende nichtlineare dynamische Systeme möglich? Chaos 22, 033119 (2012).

Artikel MathSciNet MATH Google Scholar

Henkel, SJ, Martin, JS & Nardari, F. Zeitvariable Kurzhorizont-Vorhersagbarkeit. J. Finanz. Wirtschaft. 99, 560–580 (2011).

Artikel Google Scholar

Wu, N., Green, B., Ben, Vorabdruck bei arXiv https://doi.org/10.48550/arXiv.2001.08317 (2020).

Lea, C., Flynn, MD, Vidal, R., Reiter, A. & Hager, GD Temporale Faltungsnetzwerke zur Aktionssegmentierung und -erkennung. in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 156-165 (2017).

Bahdanau, D., Cho, K. & Bengio, Y. Neuronale maschinelle Übersetzung durch gemeinsames Erlernen des Ausrichtens und Übersetzens. in Proceedings of International Conference on Learning Representations (2015).

Oreshkin, BN, Carpov, D., Chapados, N. & Bengio, Y. N-BEATS: Neuronale Basisexpansionsanalyse für interpretierbare Zeitreihenprognosen. in Proceedings of International Conference on Learning Representations (2020).

Li, S. et al. Verbesserung der Lokalität und Überwindung des Speicherengpasses bei der Zeitreihenvorhersage von Transformern. in Proceedings of Annual Conference on Neural Information Processing Systems 32 (2019).

Geary, N., Antonopoulos, A., Drakopoulos, E., O'Reilly, J. & Mitchell, J. Ein Rahmen für die Planung optischer Netzwerke unter Verkehrsunsicherheit. in Proceedings of International Workshop on Design of Reliable Communication Networks, 50–56 (2001).

Laguna, M. Anwendung einer robusten Optimierung zur Kapazitätserweiterung eines Standorts in der Telekommunikation bei Nachfrageunsicherheit. Geschäftsführer Wissenschaft. 44, S101–S110 (1998).

Artikel MATH Google Scholar

Bauschert, T. et al. Netzwerkplanung unter Nachfrageunsicherheit mit robuster Optimierung. IEEE-Komm. Mag. 52, 178–185 (2014).

Artikel Google Scholar

Radakovic, Z. & Feser, K. Eine neue Methode zur Berechnung der Hot-Spot-Temperatur in Leistungstransformatoren mit Onan-Kühlung. IEEE Trans. Stromversorgung 18, 1284–1292 (2003).

Artikel Google Scholar

Zhou, LJ, Wu, GN, Tang, H., Su, C. & Wang, HL Wärmekreislaufmethode zur Berechnung des Temperaturanstiegs von Scott-Traktionstransformatoren. Hochvolt. Ing. 33, 136–139 (2007).

Google Scholar

Jiang, J. et al. Vorhersage von Kipppunkten in gemeinschaftlichen Netzwerken durch Dimensionsreduktion. Proz. Natl Acad. Wissenschaft. USA 115, E639–E647 (2018).

Artikel MathSciNet MATH Google Scholar

Chen, L., Liu, R., Liu, Z., Li, M. & Aihara, K. Erkennung von Frühwarnsignalen für eine plötzliche Verschlechterung komplexer Krankheiten durch dynamische Netzwerk-Biomarker. Wissenschaft. Rep. 2, 1–8 (2012).

Artikel Google Scholar

Yang, B. et al. Dynamischer Netzwerk-Biomarker zeigt Lungenmetastasierung am Wendepunkt des hepatozellulären Karzinoms an. Nat. Komm. 9, 1–14 (2018).

Google Scholar

Liu, R., Chen, P. & Chen, L. Die Landschaftsentropie einer einzelnen Stichprobe zeigt den bevorstehenden Phasenübergang während des Fortschreitens der Krankheit. Bioinformatik 36, 1522–1532 (2020).

Artikel Google Scholar

Referenzen herunterladen

Diese Arbeit wurde von der National Natural Science Foundation of China unter den Fördermitteln 62076016 und 12201024 sowie der Beijing Natural Science Foundation L223024 unterstützt.

Diese Autoren haben gleichermaßen beigetragen: Yuguang Yang und Shupeng Geng.

Universität Peking, 100191, Peking, China

Yuguang Yang, Shupeng Geng, Baochang Zhang und Juan Zhang

Zhongguancun Laboratory, 100094, Peking, China

Baochang Zhang & Juan Zhang

China Unicom, 100037, Peking, China

Zheng Wang & Yong Zhang

Universität in Buffalo, 14260, Buffalo, NY, USA

David Doerman

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

YY, SG, BZ, JZ und DD haben die Forschung konzipiert. Alle Autoren arbeiten am Schreiben des Artikels. YY und SG trugen gleichermaßen zu dieser Arbeit bei, indem sie Experimente und Ergebnisanalysen durchführten. ZW und YZ sammelten die Verkehrsdaten des 5G-Netzwerks. Alle Autoren haben die Abschlussarbeit gelesen und genehmigt.

Korrespondenz mit Baochang Zhang oder Juan Zhang.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

In unserer Untersuchung sind keine Fälle von „Ethik-Dumping“ und „Helikopterforschung“ aufgetreten.

Communications Engineering dankt Akhil Gupta, Erol Egrioglu und den anderen anonymen Gutachtern für ihren Beitrag zum Peer-Review dieser Arbeit. Hauptredakteure: Miranda Vinay und Rosamund Daw. Eine Peer-Review-Datei ist verfügbar.

Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Yang, Y., Geng, S., Zhang, B. et al. Langfristige Prognose des 5G-Netzwerkverkehrs durch Modellierung der Nichtstationarität mit Deep Learning. Commun Eng 2, 33 (2023). https://doi.org/10.1038/s44172-023-00081-4

Zitat herunterladen

Eingegangen: 07. September 2022

Angenommen: 10. Mai 2023

Veröffentlicht: 06. Juni 2023

DOI: https://doi.org/10.1038/s44172-023-00081-4

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt