DSP-Erzeugung von rosa (1f) Rauschen Betrachten Sie, wie Sie rosa Rauschen durch zwei Methoden erzeugen: 1 - Ein Rauschfilter für weißes Rauschen. 2 - Der Voss-McCartney-Algorithmus zum Hinzufügen mehrerer weißer Rauschquellen in unteren und unteren Oktaven. (2006-03-27 Bitte sehen Sie auch Larry Trammells Stochastischer Voss-McCartney Algorithmus.) Suchwörter: Rosa Rauschen, 1f Rauschen, 1fnoise, Flicker Rauschen, Zufallszahlenerzeugung, DSP. 1999 Oktober 18 Kleine Updates: 2003 10. Juli: rosafarbener Opcode in Csound. 2005 19. September: Neue Seite auf Park-Miller-Carta Pseudozufallszahlengeneratoren ..rand31 2006 März 27: Link zu Larry Trammells (RidgeRats) Stochastischer Voss-McCartney-Algorithmus. 2007 22. Januar: Aktualisiert den Link zu Larrys Material. 2010 März 12: Link zum dsprelated hinzugefügt. 2011 20. März: Hinzugefügt Link zu Henning Thielemanns Papier Robin Whittle rwfirstpr. au Das meiste Material wird von anderen Personen, vor allem Allan Herriman, James McCartney, Phil Burk und Paul Kellet alle aus der Musik-dsp Mailing-Liste geschrieben. E-Mail-Adressen haben hier xxxx. Hinzugefügt, um SPAM Roboter zu verwechseln. Während die meisten oder alle der hier präsentierten Arbeit wurde in der Öffentlichkeit von seinen Schöpfern platziert, bitte spiegeln Sie nicht diese Seite oder Teile davon überall, ohne meine Erlaubnis fragen. Die Gefahr besteht darin, dass mehrere veraltete und unvollständige Kopien im Web verstreut sind. Zurück zum DSP-Verzeichnis Zurück zur Hauptprinzipien-Website, einschließlich Material auf Csound. Gute Nachrichten für Csounders Standard Csound (nach Version 4.07) hat einen pinkfarbenen Opcode, der rosa Rauschen erzeugt oder filtert externes weißes Rauschen, um es rosa zu machen. Dies wurde von Phil Burk und John ffitch geschrieben und ist hier dokumentiert: Dies wurde im Mai 2000 hinzugefügt, aber ich habe es erst im Juli 10 realisiert. Mehr Informationen über die Csound-Musik-Synthensis-Sprache ist bei csounds. Gtgtgt Einleitung gtgtgt Pseudo-Zufallszahlen und weißes Rauschen gtgtgt Die Eigenschaften von rosa Rauschen gtgtgt Die Verwendung von rosa Rauschen gtgtgt Filterung von weißem Rauschen, um es rosa gtgtgt Der Voss-Algorithmus gtgtgt Der Voss-McCartney-Algorithmus gtgtgt Allan Herrimans Analyse und illustrierte Abhandlung über die Voss - McCartney Algorithmus gtgtgt Reduzierung der Welligkeit in den Algorithmen Frequenzgang gtgtgt Referenzen und Links gtgtgt Was nächste gtgtgt Update Geschichte Eine Grafik von Allan Herrimans illustriert Abhandlung über die Summierung von Lärmquellen: allan-2spectrum2.html. Einleitung Ein Strom von Zufallszahlen stellt weißes Rauschen dar, wenn es als Audiosignal gehört wird. Das Weiß bezieht sich auf die gleichmäßige Verteilung von Wellenlängen im Weißlicht mit einer besonderen Bedeutung im Audio - oder DSP-Sinne: dass die Rauschleistung gleichmäßig über alle Frequenzen verteilt ist, und zwar zwischen 0 und einer maximalen Frequenz, die typischerweise die Hälfte der Abtastrate beträgt . Zum Beispiel hat weißes Rauschen bei einer Abtastrate von 44.100 Hz so viel Leistung zwischen 100 und 600 Hz wie zwischen 20.000 und 20.500 Hz. Zu unseren Ohren, scheint dies sehr hell und hart. A 1996 Abhandlung von Joseph S. Wisniewski über die Farben des Lärms, darunter weiß, rosa, orange, grün. Ist bei: msaxoncolors. htm. (Auch an dieser Stelle, Martin Saxons Beschreibung der verschiedenen Gewichtungsschemata für die Messung von Rauschen: msaxonnoise. htm.) In der natürlichen Welt gibt es viele physikalische Prozesse, die Lärm mit einer so genannten rosa Machtverteilung erzeugen. Rosa Rauschen hat eine gleichmäßige Verteilung der Leistung, wenn die Frequenz in einer logarithmischen Skala abgebildet wird. Ein einfaches Beispiel wäre, dass es so viel Rauschleistung in der Oktave 200 bis 400 Hz gibt, wie es in der Oktave 2000 bis 4000 Hz. Folglich scheint es, unsere Ohren sagen uns, dass dies ein natürliches Geräusch ist. Statistische Genetik Prof. Wentian Li unterhält eine gewaltige Bibliographie über 1f Rauschen an: linkage. rockefeller. eduwli1fnoise Vor der Erstellung dieser Seite erwähnte ich jedoch nichts, was mit der Erzeugung von 1f Rauschen mit digitalen Signalverarbeitungstechniken zu tun hat. Der Zweck dieser Seite ist es, Informationen über die Erzeugung von Rauschen und insbesondere rosa Rauschen digital zu sammeln. Meine primäre Verwendung für DSP rosa Rauschen ist in Software-Musik-Synthese, sowohl als Audiosignal und als Steuersignal, die Frequenzen so niedrig wie 0.001 Hz haben könnte. Hoffentlich wird dieses Material von Wert zu anderen Feldern auch sein. (Allgemeine DSP-Informationen finden Sie in der FAQ der Usenet-Newsgroup comp. dsp sowie in den häufig gestellten Fragen: bdtifaq.) Pseudozufallszahlen und Weißrauschen 1999, als ich die meisten dieser Seiten verfasste, benutzte ich einen Park Miller PRNG, as Ich schrieb an: .... csound. Die eine, die ich verwendete, war ein 31-Bit-Park-Miller-Linearkongruenzgenerator von Ray Gardner: c. snippets. orgsniplister. phpfnamergrand. c. 2005 19. September Update: Siehe meine neue Seite auf Park-Miller-Carta Pseudozufallszahlengeneratoren ..rand31 Ein Strom von unkorrelierten Zufallszahlen stellt weißes Rauschen dar. Zum Beispiel wird eine einheitliche Rauschquelle mit einem Bereich von -10 bis 10 aus Zufallszahlen ohne jegliche Korrelation zwischen dem einen und dem nächsten gebildet, und wo es eine 5 Wahrscheinlichkeit gibt, daß jede Probe beispielsweise in dem Bereich von -10 bis - 9 Bereich, der Bereich von 2 bis 3 oder irgendein anderer Bereich, der ein 20-stel des gesamten Peak-zu-Peak Bereichs ist. Die Eigenschaften von rosa Rauschen Für die Zwecke dieser Diskussion bedeutet Leistung die durchschnittliche Leistung oder Energie, die in einem Signal über einem Wert enthalten ist Lange Zeit. Weißes Rauschen hat die gleiche Leistungsverteilung für alle Frequenzen, so dass es die gleiche Leistung zwischen 0 und 500 Hz, 500 und 1000 Hz oder 20.000 und 20.500 Hz gibt. Rosa Rauschen hat die gleiche Verteilung der Leistung für jede Oktave, so dass die Leistung zwischen 0,5 Hz und 1 Hz ist die gleiche wie zwischen 5.000 Hz und 10.000 Hz. Da die Leistung proportional zur Amplitude quadriert ist, wird die Energie pro Hz bei höheren Frequenzen mit einer Rate von etwa -3dB pro Oktave abnehmen. Um absolut präzise zu sein, sollte der Rolloff -10dBdecade sein, was ungefähr 3.0102999 dBoktave ist. Die Verwendung von rosa Rauschen Die offensichtlichste Verwendung von rosa Rauschen ist als Audiosignal, direkt verwendet werden, um gefiltert werden oder verwendet werden, um etwas zu modulieren. Ich bin auch daran interessiert, rosa Rauschen Weg unter 1 Hz als Steuersignal für die Simulation von zufällig fluktuierenden Aspekte der Musik. Zum Beispiel möchte ich, dass einige Aspekte eines Stückes auf einer Minute-für-Minute-Basis zu schwanken, so dass ich willkürlich Zahlen mit Energie bei 0,01 Hz und unten. Mein besonderes Interesse ist, diese Steuersignale von einer rosa Rauschquelle rein durch die Verwendung von Filtern zu formen. Die Idee wäre, dass ich ein Bandpassfilter mit einer gewissen Bandbreite in Oktaven (oder Bruchteilen einer Oktave) haben könnte und dass ich seine Frequenz so einstellen könnte, wie es mir gefällt, ohne den RMS-Pegel seiner Ausgabe zu beeinflussen. Ohne eine rosa Rauschquelle beispielsweise unter Verwendung einer weißen Rauschquelle wird es sehr schwierig, das Stück durch Ändern der Frequenz des Bildformfilters einzustellen, da dies auch den resultierenden Signalpegel beeinflusst. Idealerweise für Steuerzwecke (z In Csound) Ich möchte in der Lage zu spezifizieren Rauschen mit: 1 - Eine bestimmte untere Grenze Frequenz. Z. B. 0,1 Hz. Darunter gäbe es entweder wenig Energie, oder die Energie wäre flach pro Hz, anstatt steigen pro Hz, um die 3dBoctave charakteristisch für rosa Rauschen. So wäre es weiß unter 0,1 Hz. 2 - Ein gewisser RMS-Pegel pro Oktave. Zum Beispiel 5,0 RMS pro Oktave. Daher würde ein perfekter Filter, der alles außer einer Oktave ausschließe, unabhängig davon, welche Oktave oberhalb der unteren Grenzfrequenz einen RMS-Wert von 5,0 betragen würde. Lärm ist Rauschen, es würde eine lange Zeit dauern, die Schwankungen auszumessen, um diese genau zu messen. 3 - Es könnte auch wünschenswert sein, eine obere Grenzfrequenz anzugeben, um die Rechenlast zu reduzieren, wo keine hohen Frequenzen erforderlich waren. In der Zukunft gedenke ich, einen Csound Quasimodo Generator für eine oder k Rate-Ausgang, von einer industriellen Qualität, anstatt analytischen Grad zu schreiben. Industrielle oder technische Salpetersäure gibt an, dass sie eine bestimmte Mindest - und Näherungsfestigkeit aufweist. Die analytische Güte spezifiziert exakt ihre Festigkeit und die Toleranz für diese Spezifikation sowie die Angabe der maximal zulässigen Werte der wichtigsten Schadstoffe. Solche Parameter würde ich bewerten: am Anfang der ugens instanziiert, nicht änderbar im Laufe der Zeit. Eine Festlegung einer unteren Grenzfrequenzgrenze der rosa Qualität des Rauschens würde also dazu führen, daß die Grenze nicht genau auf die nächste Oktave eingestellt wird. Es ist möglich, einen rosa Rauschgenerator mit k Ratensteuerung des Pegels, der oberen und unteren Grenzfrequenzen und der Steigungen dieser Grenzen vorzustellen. Auf diese Weise könnte eine präzise Steuerung der Rauschfrequenzverteilung erreicht werden, ohne den RMS-Pegel des Rauschens zu ändern. Ich werde diese Idee für jetzt verlassen, aber es wäre mächtig praktisch Filterung weißes Rauschen, um es rosa Die einfachsten DSP-Filter sind -6dBoktave. Ein DSP oder analoges elektronisches Tiefpassfilter mit einer -3dBoctave-Antwort ist (oder war, war) jedoch ein seltenes Tier. Hier sind drei Filter, die den Job machen. (Paul Kellet trug zwei frühere Filter zu den hier aufgelisteten auf.) Solch ein Filter würde mit weißem Rauschen gefüttert werden, um Rosa zu erzeugen, innerhalb gewisser Grenzen der Genauigkeit. Unterhalb der Algorithmen ist Allan Herrimans grafische Analyse der Reaktion dieser drei Filter. Die erste Beschreibung, die mir bekannt ist, stammt von Robert Bristow-Johnson ltpbjrbjxxxx. viconetgt an die Musik-DSP-Liste am 30. Juni 1998: (Dies ist rbj (Red) Robert Bristow-Johnsons drei polig und drei Nullfilter.) Gt Orfanidis auch Erwähnt einen klugen Weg, um einigermaßen gutes 1f gt Rauschen zu erhalten: Summe zusammen n randhs, wobei jeder randh eine gt Oktave langsamer als die vorhergehende (one) ausführt: gt gt Dies ist ein Verweis auf Sophocles Orfanidis Buch Einführung in gt Signal Processing: gt Gt prenhallbooksesm0132091720.html gt gt Das klingt wie ein ziemlich guter Weg, es zu tun. Eine andere Methode, die Orfanidis erwähnt, kam aus einer comp. dsp Post von mir. Seine nur ein einfaches Pinking-Filter auf weißes Rauschen angewendet werden. Da der Rolloff -3 dBoktave ist, -6 dBoktave (Pol erster Ordnung) zu steil und 0 dBoktave zu flach. Kann eine äquiripple Annäherung an den idealen Vergilbungsfilter durch abwechselnde reelle Pole mit echten Nullen realisiert werden. Eine einfache Lösung 3. Ordnung, die ich erhielt, ist: die Antwort folgt der idealen -3 dBoktave-Kurve innerhalb oder - 0,3 dB über einen Bereich von 10 Oktaven von 0,0009nyquist bis 0,9nyquist. Wahrscheinlich, wenn ich es wieder tun, id machen es 5 Pole und 4 Nullen. Rb-j pbjrbjxxxx. viconet a. k.a. robertxxxx. audioheads a. k.a. robertxxxx. wavemechanics Nicht in die Dunkle Seite geben. Boykott intel und microsoft. Aus dem Musik-DSP-Codearchiv: music. columbia. educmcmusic-dsp (War an shoko. calarts. edu glmrboymusicdspdspsource. html) Paul Kellet ltpaul. kellettxxxx. maxim. abel. co. ukgt abel. co. uk Maxime wurde aktualisiert am Mehrere Gelegenheiten und jetzt (1999 Oktober 17) enthält zwei Implementierungen, die hier: shoko. calarts. edu glmrboymusicdspsourcecodepink. txt, die ist, bis zu -0.05dB über 9.2Hz (44100Hz Abtastrate) genau ist. 2011-03-20 update: die Musik-DSP-Archive sind auf: musicdsp. orgshowmany. php enthält mehrere Elemente im Zusammenhang mit rosa Rauschen, aber ich bin nicht sicher, welche dieser, wenn überhaupt, sind die rosa. txt oben erwähnt. Am 17. Oktober 1999 stellte Paul eine weitere Verfeinerung vor: Instrumentation Grade und Economy Filter. Dies ist eine Annäherung an einen Filter -10dBdecade, der eine gewichtete Summe von Filtern erster Ordnung verwendet. Die Genauigkeit liegt bei -0,05 dB über 9,2 Hz (Abtastrate 44100 Hz). Unity-Verstärkung ist bei Nyquist, kann aber durch Skalierung der Zahlen am Ende jeder Zeile angepasst werden. (Dieses ist pk3 (Schwarzes) Paul Kellets verfeinerte Methode in der Allans-Analyse.) B0 0,99886 b0 weiß 0,0555179 b1 0,99332 b1 weiß 0,0750759 b2 0,96900 b2 weiß 0,1538520 b3 0.86650 b3 weiß 0.3104856 b4 0.55000 b4 weiß 0.5329522 b5 -0.7616 b5 - weiß 0.0168980 rosa b0 B1 b2 b3 b4 b5 b6 weiß 0.5362 b6 weiß 0.115926 Eine Economy-Version mit einer Genauigkeit von -0.5dB ist ebenfalls erhältlich. (Dies ist pke (Blau) Paul Kellets Wirtschaft Methode.) B0 0.99765 b0 weiß 0.0990460 b1 0.96300 b1 weiß 0.2965164 b2 0.57000 b2 weiß 1.0526913 tmp b0 b1 b2 weiß 0.1848 Hier ist Allan Herrimans grafische Analyse der Reaktion dieser drei Filter. Magnitude Squared Response von drei Vergilbungsfiltern Allan Herriman 18 October 1999 rbj (Red) Robert Bristow-Johnsons drei polig und drei Nullfilter pk3 (schwarz) Paul Kellets verfeinerten Methode pke (blau) Paul Kellets Wirtschaft Methode Ebenheit von drei Vergilbungsfilter Vertikale Skala ist 0,2dBdivision. Ich fragte Paul über den Algorithmus, den er verwendet, um diese hoch gezwickt Filter zu entwickeln. Er antwortete mit dem folgenden Text und Bild. Es kommt zurück auf den Abfall eines Tiefpassfilters erster Ordnung, der bei -6dBoktave zu steil ist. Das einzige, was ich denken konnte mit einem weicheren roll-off war der Übergang von 0dBoct zu -6dBoktave am Knie eines solchen Filters. Durch Positionierung genug von diesen Knien in einer Treppe eine gute -3dBoct Slope gemacht werden kann. Ein leichter Anstieg des Pegels tritt bei Nyquist auf, aber dies kann durch Kombinieren eines wenig ungefilterten, hochpassgefilterten und verzögerten Signals mit dem Ausgangssignal entgegengewirkt werden. Jede Version des Filters wurde von Hand mit einem einfachen Visual Basic-Programm entworfen, um die Impulsantwort (mit einem 3dBoct Schwerpunkt) als die Koeffizienten eingestellt wurden. Das angehängte Bild zeigt, wie die ökonomische Version aufgebaut ist. Ich bin froh zu sehen, dass diese hoch-optimierte Filter sorgfältig handgefertigt sind Im Rahmen einer Diskussion über die Abflachung der Voss-Algorithmen Frequenzgang, beigetragen Allan Herriman die folgenden auf die Abflachung der Reaktion der gefilterten weißen Rauschen Ansatz. (Dies war vor Paul Kellets Instrumentierung und Wirtschaft Pinking-Filter vom 17. Oktober 1999.) Dieser Trick könnte auch verwendet werden, um die Welligkeit der gefilterten weißen Rauschen Methode zu reduzieren. Aber in diesem Fall denke ich, es ist viel effizienter (und einfacher), nur noch mehr Pole und Nullen auf den Filter. Die Filter haben alle Pole und Nullen real (d. h. Abschnitte erster Ordnung). Die Pole und Nullen wechseln ab, und es wird ein konstantes Verhältnis zwischen den Frequenzen geben. Dieses Verhältnis bestimmt die Welligkeit. Z. B. Wenn das Verhältnis 2 ist und wir mit einem Pol bei 1Hz beginnen, erhalten wir folgendes: Bei einigen Simulationen in PSpice () gaben mir die folgenden angenäherten Welligkeitswerte: Wenn es nur eine kleine Anzahl von Pole und Nullen gibt (zB rb-js Entsendung hat drei von jedem), dann wird das optimale Ergebnis nicht über einen exakten logarithmischen Abstand von Frequenzen. Ich denke, es ist möglich, einige Optimierungsmethode verwenden, um die beste Pol und Null-Positionen für eine bestimmte Menge an Welligkeit zu bekommen, aber ich habe nicht versucht, dies zu tun. Die Pol - und Nullstellen könnten auch verzogen sein, um Stichprobeneffekte zu berücksichtigen. Ich schlage vor, einen Pol mehr als Null zu haben, so dass das Rauschen über dem interessierenden Bereich braun ist und das Rauschen unter dem interessierenden Bereich weiß ist. Das wäre aber wahrscheinlich egal. Der Voss-Algorithmus Am 30. Juni 1998 schickte Thomas Hudson diesen C-Code, der den Voss-Algorithmus implementiert, der rosa Rauschen erzeugt, indem eine Reihe weißer Rauschquellen bei sukzessiv tieferen Oktaven hinzugefügt werden: Falls Sie Schwierigkeiten haben, den M. Gardner - Ich habe eine C-Klasse, die Vosss-Algorithmus implementiert: include ltiostreamgt gehören ltstdlib. hgt Ich antwortete: Vielen Dank für diesen Code. Es bestätigt mein Verständnis von gerade Abtastung und Halten von niedrigeren Oktav-Weiß-Rauschquellen, und sogar Gewichtung von allen. Das einzige, was ist, dass die am schnellsten wechselnde Rauschquelle in diesem Code jedes zweite Sample ändert. Shouldnt es auch weißes Rauschen auf jeder Probe In diesem Fall wäre es am besten machen die zufälligen Werte geteilt durch 6 statt 5 und setzen Summe auf rans () (range6) anstatt 0. Thomas antwortete: Youre Recht. Eigentlich habe ich etwas vom ursprünglichen Artikel geändert haben. Oder es kann ein Fehler sein. Ich glaube, ich experimentierte mit verschiedenen Bereichen und Zahlen von weißen Werten. Wenn ich dieses tat, verwendete ich die resultierende rosafarbene Zahl als Nachschlagewert in einer Tabelle der Anmerkungen. Ich kann sogar eine Version irgendwo haben, die einen Granularitätsparameter hatte, so dass man nicht nur den Bereich angeben, sondern auch die Anzahl der weißen Werte. Ich habe die Bedeutung, um den Einfluss der verschiedenen Zahlen der weißen Werte. Der Voss-McCartney-Algorithmus Ende August und Anfang September nahm die 1f-Lärmdebatte den Kopf in einer konstruktivsten Form auf der Musik-DSP-Mailingliste auf: shoko. calarts. edu Basierend auf dieser Diskussion und Feedback und Beiträgen der Teilnehmer, hier Ist die Schlüsselelemente des Voss McCartney-Algorithmus und dessen Implementierung. James McCartney ltasynth xxxx. Iogt 2 Sep 1999 21:00:30 -0600 Um 3:52 PM -0600 9299, Stephan M. Sprenger schrieb: gt gt Ive hörte einen Vorschlag für das Bilden des rosafarbenen Rauschens durch das Hinzufügen der mehrfachen gt gt Geräuschquellen. (I havent es versucht oder analysiert es selbst, so kann ich nicht gt gt sagen, ob seine irgendwie gut.) Gt gt gt Allan, gt gt Dies ist der Algorithmus, den ich als Voss-Methode in meinem vorherigen gt posting. Seine beschrieben in M. Gardner, White and Brown Music, Fractal gt Kurven und One-Over-f Fluktuationen, Sci. Amer. 16 (1978) S.288 gt nach Orfanidis, die es in Einführung in Signal gt Processing erwähnt. Er gibt auch eine Implementierung von ihm, aber ich havent versuchte es gt es noch so kann ich nicht wirklich kommentieren. Ich habe eine Verbesserung für diesen Algorithmus eine Weile zurück. Hier ist es wieder: Heres, wie die Gardner rosa Rauschgenerator zu verbessern. Gardner addiert mehrere gleichförmige Zufallszahlengeneratoren, die in Oktavzeitintervallen ausgewertet werden. Das Muster ist wie folgt: x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x Nun ist das Problem mit der oben ist, dass auf einigen Proben müssen Sie viel mehr zufällige Werte als andere addieren. Dies kann auch große Diskontinuitäten in der Welle verursachen, wenn sich viele der Werte auf einmal ändern. Durch Umordnen der Reihenfolge, in der die Zufallsgeneratoren die Last ändern können, kann die Operation effizienter gestaltet werden, und die Abweichung von einer Probe zu einer anderen wird durch einen konstanten Wert bei jeder Probe begrenzt. Heres das Muster, eine Baumstruktur: Nur einer der Generatoren ändert jede Probe. Das macht die Last konstant. Es bedeutet auch, dass Sie die Summe durch Subtrahieren des vorherigen Wertes eines Generators aktualisieren und den neuen Wert hinzufügen können, anstatt sie alle zusammen zu summieren. Sie können festlegen, welche Zufallszahl geändert werden soll, indem Sie einen Zähler inkrementieren und die nachlaufenden Nullen im Wort zählen. Die Anzahl der nachlaufenden Nullen ist der Index der zu ändernden Zufallszahl. Die Anzahl der nachlaufenden Nullen kann sehr schnell auf einer Maschine mit einem Zählerstand-Nullen-Befehl bestimmt werden. Rest der Übung bleibt dem Leser überlassen. Die obigen Muster zeigen die Zeit, die sich horizontal nach rechts bewegt, und jede Zeile ist eine zufällige Zahl, oder vielmehr eine quadratisch abgetastete weiße Rauschquelle. Später erklärte James dies mit der Feststellung, dass jede Probe auch eine weiße Rauschenprobe enthielt: gt Das obere Ende des Spektrums war nicht so gut. Die Kaskade der Sünden (x) x gt Formen, die ich in meinem anderen Posten vorhergesagt hatte, war ganz offensichtlich. Gt Ripple war nur etwa 2dB bis Fs8 und 4dB bis Fs5. Die Antwort gt betrug etwa 5dB bei Fs4 (einer der sin (x) x Nullwerte), und es gab gt eine tiefe Null bei Fs2. Gt (Diese Figuren sind etwas rau. Mehr Mittelwerte hätten geholfen.) Sie können die obere Oktave etwas verbessern, indem Sie einen weißen Rauschgenerator mit der gleichen Amplitude wie die anderen hinzufügen. Welche im Diagramm füllt wie folgt: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x Itll sein noch dort holprig, aber die NULL-Werte werden nicht so tief sein. Hier ist meine ASCII-Diagramm der Wellen, die ich glaube, James letzten Diagramm represants: Output-Proben sind in der obersten Zeile, und sind die Summe aller anderen Zeilen zu diesem Zeitpunkt. Zeile -1 ist das weiße Rauschen, das jedem Ausgabeprobe hinzugefügt wird. Die Zeilen 0 bis 4 sind die Zeilen des abgetasteten weißen Rauschens, die alle miteinander vermischt sind. Allan hat eine ASCII-grafische Erklärung der Frequenzspektren der verschiedenen Rauschquellen und wie sie alle addieren. Siehe allan-2spectrum2.html für eine genauere theoretische und grafische Analyse. Allan Herriman Sa, 04 Sep 1999 05:18:24 1000 Die Statistik der Zufallszahlen ist identisch. Jedoch repräsentiert jede Zeile eine Sequenz, die mit einer unterschiedlichen Rate ausgegeben wird. Eine andere Möglichkeit, dies zu betrachten ist, dass es eine echte weiße Rauschquelle (unendliche Bandbreite) gibt, wobei ein unterschiedliches Sample und Halten für jede Zeile vorhanden ist. Der Sample - und Hold - (oder Null-Ordnung-Hold) hat einen Sin (x) x-Frequenzgang. (Ich denke, wir sollten in Bezug auf die Macht denken, so ist die Antwort ((sin (x) x) 2)). Da jede Zeile mit einer anderen Rate abtastet, ist ihre Frequenzantwort unterschiedlich. (Sorry über die ASCII Art.) Vertrauen Sie mir, das funktioniert. Ich habe nur einen ganzen Abend testen. Ja, ich weiß. Ich brauche ein Leben zu erhalten :( Phil Burk einige Code geschrieben, die scheinbar ähnlich war, was Allan zu schreiben würde. Das ist eine ganze Zahl implentation, und anstatt für jede Probe alle Zeilen addiing, wenn eine Zeile ändert, ist es subtrahiert Die Zeilen vorherigen Wert aus der laufenden Summe und fügt den neuen Zeilenwert (eine zufällige Zahl ).Es ist ein weißes Rauschsignal hinzugefügt, um diese laufende Summe zu produzieren den Ausgangswert wie ich oben vorgeschlagen, das Äquivalent einer Row -1, die sich ändert Jede Probe. Die endgültige Version des Phil Burks-Code ist hier: Siehe auch die innere Loop-Code unten von James McCartney. Folgende, dass es eine ganze Menge Diskussion darüber, wie die Auswahl der Zeile, die zu aktualisieren Code Code Und die Testschleife, um die abschleppende Anzahl von Nullen zu zählen, die dann die zu aktualisierende Zeile auswählt. Die Power PC CPU hat dazu eine Anweisung, und so scheinbar macht der Pentium all dies im Listenarchiv Anfang September 1999 und ich Es wurde auch diskutiert, wann keine Zeile (Zeilen 0 bis 4 in meinem Diagramm oben), bei seltenen Gelegenheiten ändern würde. James McCartney antwortete, dass die gelegentliche unveränderte Probe nicht viel ein Problem ist. Ich stimme zu, vor allem, da wir das Hinzufügen von weißem Rauschen (Zeile -1 in meinem Diagramm) auf jeder Probe. Er kommentierte auch Codierungsstrategien, um die Geschwindigkeit zu optimieren, wenn sie den Zustand 0 eines Zählers in einer Schleife suchten. Ich havent wirklich folgte diesem. James McCartney Sun, 5. September 1999 16.18.52 -0600, um 12:34 Uhr -0600 9599, Phil Burk schrieb: gt James McCartney schrieb: gt gt gt gt, um 10:39 Uhr -0600 9499, Phil Burk schrieb: gt Gt gt Nur um mein Verständnis zu testen, habe ich zusammen eine C gt gt gt Implementierung des Pink Noise Algorithmus, den wir diskutiert haben. Gt gt gt Etwas, was war nicht offensichtlich für mich auf den ersten war, dass, wenn die gt gt gt null ist Ich ändere niemals irgendwelche Zeilen. Gt gt gt gt Eine Zeile sollte jede Probe ändern. Gt gt Im nicht sicher, dass ich damit einverstanden bin. Das Baumdiagramm, das Sie zeigten, hatte eine gt ungerade Anzahl von Spalten, 2N-1. Ich denke, die fehlende Spalte stellt eine gt-Beispiel, wenn keine Zeilen ändern. Andernfalls ändert sich eine der Zeilen einmal zu oft und nicht bei einer Oktavfrequenz. Es spielt keine Rolle. Wenn Sie genug Oktaven haben, dann wird der Zähler nur null sein. Beachten Sie, dass bei dieser Methode die Anzahl der verwendeten Oktaven keinen Einfluss auf die Rechenkosten hat. Wenn Sie 16 Oktaven verwenden, dann erhalten Sie ein bisschen mehr Energie Weg unten bei 0,67 Hz Fs44100. Wenn Sie 8 Oktaven verwenden, dann ist es bei 172Hz, aber es ist ziemlich vernachlässigbar. Es ist besser, nur zulassen, dass es geschieht, als auf eine Null jedes Mal durch die Schleife zu überprüfen. Was bringt ein anderes Thema. In einer Menge von DSP-Code sehe ich Leute tun dies: Das ist eine sehr teure Art und Weise zu tun, weil Sie für den Zähler immer überprüfen, obwohl die meisten Male durch die Schleife der Test fehlschlägt. Da Sie den Wert des Zählers kennen, können Sie vorhersagen, wann er ausgeht. Daher ist es viel besser, die folgenden: Dies beseitigt alle unnötigen bedingten Tests und beschleunigt die innere Schleife. James McCartney veröffentlicht seine innere Schleife Code: James McCartney Mo, 6. September 1999 12.51.50 -0600, um 10:14 Uhr -0600 9699, Phil Burk schrieb: gt James McCartney schrieb: gt gt gt gt, um 6:22 Uhr - 0600 9599, Phil Burk schrieb: gt gt gt James McCartney geschrieben: gt gt gt gt gt Leider, da ich schreibe nicht rein Macintosh Code ich kann nicht die pfiffigen PPC Anweisung auf gt gt gt verlassen führenden Nullen zu zählen. Also bin ich mit einem gt gt gt ineffiziente High-Level-Schleife, um nachfolgende Nullen zählen. Diese Schleife scheitert gt gt gt, wenn der Zähler Null ist, so habe ich auf Null zu überprüfen ohnehin. Gt gt gt OR den Zähler mit 0xFFFF0000. Dann haben Sie 16 Oktaven gt gt und Ihre Schleife wird nie versagen. Gt gt Vielleicht ist mein Tee hat nicht getreten cuz Ich noch nicht bekommen. Angenommen, ich habe gt 16 Oktaven, indexiert 0-15. ORing mit 0xFFFF0000 bedeutet, dass ich manchmal bekommen 16 nachgestellte Nullen. So wouldnt ich noch nach diesem Fall gt überprüfen müssen, um über-Indizierung mein Array zu verhindern. Ich könnte genauso gut auf Null überprüfen, bevor gt in die Schleife eintritt. Dann ODER mit 0xFFFF8000 gt Im geneigt, mit meinem ursprünglichen Code zu bleiben, da es mathematisch gt OK, tragbar und akzeptabel schnell ist. Der (cntr0) - Abzweig wird nur einmal alle 2N mal abgenommen. Die anderen Zeiten kostet es nur einen 1 gt Befehlszweig nicht genommen, da der Test der Generierung von gt der Index folgt und die Bedingungscodes bereits gesetzt sind. Ich denke wirklich, dass, es sei denn Sie eine Anweisung verwenden, um die nachlaufenden Nullen zu erhalten, dass es keinen Vorteil zu meinem Algorithmus gibt. Der ganze Punkt ist, dass mit der Nutzung einer solchen Anweisung erhalten Sie eine große Geschwindigkeit über Filter-Rauschen, oder die normalen VossGardner-Algorithmus. Ich denke, dass die meisten Prozessoren solche Anweisungen haben. Ich sehe keinen Grund Sie cant ifdef es in Ihren Code. Hier ist meine eigene innere Schleife Implementierung: unsigned long Würfel, Zähler, prevrand, newrand, Samen, total, ifval, k Streubesitz für (i0 iltnsmps i) k CTZ (Zähler) zählen nachfolgende Nullen kk amp 15 vorherigen Wert dieser Oktave erhalten prevrand dicek erzeugen einen neuen Zufallswert Saatgut 1664525 Samen 1013904223 Verschiebung zu bewegen, in Mantisse geteilt bITFIELD von 16 newrand Samen gtgt 13 Update gesamt gesamt (newrand - prevrand) erzeugen einen neuen Zufallswert für die obere Oktave Samen 1664525 Samen 1013904223 Verschiebung zu bewegen, in Mantisse Bitfeld geteilt durch 16 newrand Seed gtgt 13 gibt es eine theoretische Chance, dass total Newrand könnte das Mantissen-Bitfeld überlaufen, aber es ist äußerst unwahrscheinlich, weil insgesamt ein Gauß-verteilten Wert ist. Umstellung auf Fließkommawert von 2,0 bis 4,0 durch Maskierung ifval (gesamt newrand) 0x40000000 subtrahieren 3 in Reichweite zu bekommen von -1 bis 1 und Ausgang aus (((float) ampifval) - 3.0f) Allan Herrimans Analyse und illustrierte Abhandlung über die Voss-McCartney-Algorithmus Allan schickte mir zwei Dokumente analysieren die Voss Ansatz zur Erstellung rosa Rauschen. Auch hier ist eine Idee von mir für die Herstellung der Leistungsverteilung des Algorithmus näher Ansatz das Ideal. Die erste war eine dreiseitige Excel-Kalkulationstabelle, die die durchschnittlichen 1024 FFTs des Rauschens, jede von ihnen 524.288 Punkten graphisch darstellte. Diese Datei als 351k. zip-Datei finden Sie hier: allan-1graph. zip. Einer seiner Graphen wird am Ende dieser Seite angezeigt. Allans-Hinweise zu dieser Kalkulationstabelle sind: allan-1graph-zip. readme. txt. Die zweite war eine Word-Datei, die theoretisch analysiert, wie sich die mehreren Rauschquellen zusammensetzen. Ich habe diese in HTML konvertiert (mit Word 97), so können Sie lesen Allans ausführlich illustrierte Abhandlung hier allan-2spectrum2.html Eine Grafik aus dieser wird am Anfang dieser Seite angezeigt. Beachten Sie, dass das, was Allan bezieht sich auf Zeile 0 für das weiße Rauschen auf jeder Probe ist, was ich als Zeile -1 in meinem ASCII-Diagramm oben. Seien Sie sicher, die oben genannte Abhandlung zu lesen. Allan hat auch das folgende Material beigetragen, ob rosa Rauschen stationär ist oder nicht. Eines Tages hoffe ich, DSP auf dieser Ebene verstehen zu können. Denn jetzt reproduziere ich, was er wörtlich schrieb. Ich denke, dass, um die Akademiker glücklich zu halten, brauchen wir eine Aussage irgendwo, dass wahr (Breitband) rosa Rauschen ist nicht stationär. Ein Beweis dafür wurde in comp. dsp eine Weile zurück gegeben. (Jeff Schencks posting hier archiviert als: allan-1stationary. html.) Das Problem ergibt sich aus einer konstanten Kraft pro Oktave über eine unendliche Anzahl von Oktaven. Eine der Implikationen ist, daß wir nicht rosafarbenes Rauschen bilden können, indem man weißes Rauschen filtert. OTOH, wenn wir nur an Genauigkeit bis zu einer niedrigeren Grenzfrequenz interessiert sind, dann ist das Rauschen stationär, und wir können es durch Filtern von weißem Rauschen erzeugen. Dies ist in der Regel der Fall für Audio-Anwendungen. Beachten Sie, dass der Voss-Algorithmus sehr glücklich ist, eine unendliche Anzahl von Oktaven mit nur zwei zufälligen Zahlen pro Stichprobe (Sie brauchen unendlich Speicher für diese aber), und ist daher nicht abhängig von der Niederfrequenz Cutoff Problem. Ich fragte ihn, was nicht stationär meinte, und er antwortete: Von OS:. Können diese Wahrscheinlichkeitsverteilungsfunktionen eine Funktion des Zeitindex n sein. In dem Fall, in dem alle Wahrscheinlichkeitsfunktionen unabhängig von einer Verschiebung des Zeitursprungs sind, wird der Zufallsprozeß als stationär bezeichnet. Mit anderen Worten, die Statistik des Signals ändert sich nicht mit der Zeit. Es stellt sich heraus, dass zufällige Prozesse mit PSDs proportional zu 1fa für eine lt 1 stationär sind. Pink Rauschen repräsentiert die a 1 Fall. Braun (oder rot) Rauschen repräsentiert den a 2 Fall und ist auch nicht stationär. Allan zitiert aus einer der Bibeln von DSP wie bei der comp. dsp FAQ-Seite erwähnt (siehe unten in dem Abschnitt): AV Oppenheim und RW Schafer, Digital Signal Processing, Prentice-Hall, Inc. Ewood Cliffs, NJ 1975. ISBN 0-13-214635-5. Verringerung der Welligkeit in den Algorithmen Frequenzgang Es gibt einige Welligkeit im Frequenzgang des Voss-Algorithmus, wie in den Grafiken am oberen und unteren Rand dieser Seite gezeigt. Diese Verringerung der Welligkeit der Algorithmen Frequenzgang wäre nicht für meine musikalischen Anwendungen erforderlich, aber sie könnten für die Erzeugung von analytischen Grad rosa Rauschen für wissenschaftliche Zwecke nützlich sein. Allan schlägt Möglichkeiten, dies zu reduzieren. Die Welligkeit im Voss-Generator kann auf die Hälfte dieses Pegels (auf etwa 12 dB) reduziert werden, indem die Ausgangssignale von zwei rosa Rauschgeneratoren summiert werden, wobei einer bei 1 sqrt (2) (ungefähr 70) der Samplefrequenz des anderen läuft. Ungerade Abtastraten wie dies könnte ein wenig schwierig zu implementieren, und würde nur für Anwendungen wie Test-Instrumente (wo Sie wirklich über Flachheit zu kümmern), etc. Seine Anmerkung über die Verwendung von ähnlichen Techniken zur Verringerung der Welligkeit in der gefilterten weißen Rauschen Ansatz lohnt sich Oben in der Filterung Abschnitt. Ich habe eine andere Idee für die Verringerung der Welligkeit in der Antwort: Frequenz modulieren jede Zeile zu niedrigeren Oktaven auf einer zufälligen Basis Wie ich an Allan schrieb: Um eine zufällige abwärts Frequenzmodulation für jede Zeile, für jedes Mal, dass die Zeile mit aktualisiert werden soll Eine neue Zufallszahl, verwenden Sie eine zufällige Funktion zu entscheiden, ob dies zu tun oder es unverändert lassen. Wenn ein einzelnes Update verpasst wurde, dann würde dieser Zeilenwert das gleiche bleiben für doppelt so lang wie üblich. In praktischer Hinsicht, wenn wir wollen, dass die Aktualisierungswahrscheinlichkeit 50 ist, dann halten wir die Schleifenzählerzählung, aber bevor wir den Code aufrufen, um eine neue Zufallszahl zu erhalten und die entsprechende Zeile zu aktualisieren, betrachten wir ein bisschen von einem zuvor erhaltenen random number and only call the code if the bit 1. I would not like to write a formula for the frequency response of the results I believe that by doing a drastic, noisy, frequency - modulation of each row, those distinctive curves in its frequency response will be scattered rather nicely and so the sum of all the rows frequency responses will be smoothed out. Overall, the frequency of the resulting noise would move downwards, by some factor which I couldnt be bothered thinking about right now. Therefore, we might want to add a lower level of white noise (my row -1 to compensate for this. On average, I guess this noise would be about 70 the frequency of the original. 50 of the time it would be the normal frequency through doing the normal row update. 25 of the time it would be an octave down through missing a single row update. (However, this covers two row sample times, so my 25 should be higher) 12.5 of the time it would be 1.5 octaves down through missing two updates, and so running at 13 the normal sample rate. 6.25 of the time it would be 2 octaves down through missing three updates. The pattern continues, but these are for longer and longer times, so calculating the exact change to the power distribution is left as an exercise to the reader. (Allan had to get back to some other responsibilities for the time being.)2006-03-27 Please see Larry Trammells (RidgeRats) Stochastic Voss-McCartney algorithm details below. References to other material Here are a few references to other material and web sites. Please let me know if any of these links no longer works. In some cases I have copies of the pages and software and will put them on my site if the original pages cannot be found anywhere. There is a widely known article in Scientific American. Stephan M. Sprenger (ltsms xxxx. prosoniqgt, prosoniq ) wrote in Music-DSP on 30 June 1998: The original algorithm has been suggested by Voss in M. Gardner, White and Brown Music, Fractal Curves and One-Over-f Fluctuations, Scientific American, 1978. It doesnt yield exact 1f noise though, but for most practical applications it comes close enough. Searching AltaVista for voss and noise and gardner I came across a site on chaos site usuarios. intercom. escocleabennett. htm which mentioned another article by Voss: Voss, Richard F. and John Clarke. ampquot 1f noise in Music: Music From 1f Noise. J. Acoust. Soc. Am 63(1) (1978): 258-261. JASA is a fascinating journal. Everything from the neurochemistry of a gnats auditory system to the propagation of sound waves in water across the Pacific Ocean. I will try to find these articles. Apparently the suggested algorithm is adding successive noise sources where each source is an octave below the previous one, and all have the same level. The implementaion of this is discussed in Thomas Hudsons C code above. Wentian Lis bibliography also lists another article: R. F. Voss and J. Clarke, 1f noise in music and speech, Nature,258, 317-318 (1975). On the Music-DSP list (25 August 1999) Chuck Cooper ltplangent xxxx. mediaone. netgt wrote: About generating 1F noise directly: Theres an algorithm in Computer Music -- Synthesis, Composition and Performance by Charles Dodge and Thomas Jerse. Page 290 in the more recent edition. Its a pretty short loop. It picks one of N integers (N a power of 2) with a 1F distribution. A good site for FAQs DSP code and DSP development software is DSP-Guru . dspguru. Denis Matignon has a site on noise which is related to pink-noise. tsi. enst. fr matignon I dont understand this field of fractional differential systems theory, but I think it relates to noise in servo systems which has a power distribution at a different slope from -3dBoctave. (Explanatory material at this site was not viewable with Netscape due to a missing style sheet, so use a less fussy browser instead.) The web site for the Music-DSP mailing list is shoko. calarts. edu (New April 2000) An article on pink noise, including an analogue filter circuit, by Don Morgan for Embedded Systems magazine. embedded200000030003spectra. htm . 2006-03-27 Larry Trammells (RidgeRats) Stochastic Voss-McCartney algorithm . home. earthlink. net ltrammelltechpinkalg. htm . He announced it on the MusicDSP mailing list: aulos. calarts. edupipermailmusic-dsp2006-Marchthread. html. There is some interesting discussion on the list, which I have not attempted to summarise here - please see the archives . 2007-01-22 Larry Trammells (RidgeRats) new approach, which is faster and smoother: home. earthlink. net 2006-03-27 Nicolas Brodu has a paper using the Voss-McCartney algorithm with the highly respected Mersenne Twister PRNG: 2010-03-12 A good source of DSP information is dsprelated . 2011-03-20 Henning Thielemanns paper Sampling-Rate-Aware Noise Generation users. informatik. uni-halle. de thielemaResearchnoise. pdf may be of interest. It concerns pink and white noise and methods of generating them which dont lead to unpleasant surprises if the sampling rate is changed. What next Please suggest improvements and additions for this page. At some stage in the future, when I get my brain back into programming mode, I intend to write a pink noise ugen for Csound (and Quasimodo) for k and a rate. I can think of some ways to make a speedy algorithm by hard coding the first few rows of noise, writing it into a buffer (say 32 or 64 floats) which are subsequently read out until they are all goen and it is time to calculate a new set. This way, I think, we dont need to fuss over counting zeroes, except for the one sample of the 32 or 64 which changes according to the main counter. There was some discussion on the list of the merits of this, but it is hard to envisage the effects of caching and of how I would implement it. One view is that any use of buffers of pre-computed noise samples would be slower. However, maybe fast, hard-coded calculations filling a buffer, and that buffer being used in a loop to fill an array of a rate samples, looks attractive to me. Thanks to James, Phil and Allan Here is a graph from Allan Herrimans spreadsheet. It is based on averaging 1024 FFTs of noise, each of them 524,288 points. 10db per decade reduction in power is precisely what it should be. Update history See also minor updates at the beginning. 2007 January 22 Updated link to Larrys material. 2006 March 27 Link to Larry Trammells Stochastic Voss-McCartney algorithm and to Nicholas Brodus paper and source code. 2005 September 19 Added link to new Park-Miller-Carta PRNG page. 2003 July 10 Added link to pinkish opcode in Csound. 2000 April 11 Added link to Don Morgans article. 1999 October 18 Removed Paul Kellets two earlier filters, added Allans graphical analysis of these two and Robert Bristow-Johnsons pinking filters into the main page. Also added Pauls description of how he devised the filters. 1999 October 17 Added updated pinking filter algorithms from Paul Kellet, but left his first two there, because Allan had analysed them. 1999 October 15 Added an updated allan-2spectrum2.html and Allans analysis of the pinking filters. 1999 September 20 Updated Paul Kellets pinking filter. 1999 September 14 Everything revised in light of comments and contributions. Multiple revisions during the day. A completely new version of Allans treatise added. Added my proposal for randomised frequency modulation of each row to reduce ripple. 1999 September 09 (9999) Page created. Allans graph added. Autoregressive Moving Average ARMA(p, q) Models for Time Series Analysis - Part 1 In the last article we looked at random walks and white noise as basic time series models for certain financial instruments, such as daily equity and equity index prices. Wir fanden, dass in einigen Fällen ein zufälliges Wanderungsmodell nicht ausreicht, um das vollständige Autokorrelationsverhalten des Instruments zu erfassen, das anspruchsvollere Modelle motiviert. In den nächsten Artikeln werden wir drei Modelltypen diskutieren, nämlich das Autoregressive (AR) - Modell der Ordnung p, das Moving Average (MA) - Modell der Ordnung q und das gemischte Autogressive Moving Average (ARMA) - Modell der Ordnung p , Q. Diese Modelle werden uns helfen zu erfassen oder zu erklären, mehr der seriellen Korrelation in einem Instrument. Letztlich werden sie uns ein Mittel zur Prognose der künftigen Preise bieten. Es ist jedoch bekannt, dass finanzielle Zeitreihen eine Eigenschaft besitzen, die als Volatilitäts-Clusterung bekannt ist. Das heißt, die Flüchtigkeit des Instruments ist nicht zeitlich konstant. Der technische Begriff für dieses Verhalten wird als bedingte Heteroskedastizität bezeichnet. Da die AR-, MA - und ARMA-Modelle nicht bedingt heteroskedastisch sind, dh sie nicht das Volatilitäts-Clustering berücksichtigen, benötigen wir letztlich ein anspruchsvolleres Modell für unsere Prognosen. Zu diesen Modellen gehören das Autogressive Conditional Heteroskedastic (ARCH) Modell und das Generalized Autogressive Conditional Heteroskedastic (GARCH) Modell und die vielen Varianten davon. GARCH ist in Quantfinance besonders bekannt und wird vor allem für finanzielle Zeitreihensimulationen als Mittel zur Risikoabschätzung eingesetzt. Wie bei allen QuantStart-Artikeln möchte ich aber diese Modelle aus einfacheren Versionen aufbauen, damit wir sehen können, wie jede neue Variante unsere Vorhersagefähigkeit ändert. Trotz der Tatsache, dass AR, MA und ARMA relativ einfache Zeitreihenmodelle sind, sind sie die Grundlage für kompliziertere Modelle wie den Autoregressive Integrated Moving Average (ARIMA) und die GARCH-Familie. Daher ist es wichtig, dass wir sie studieren. Einer unserer ersten Trading-Strategien in der Zeitreihe Artikel-Serie wird es sein, ARIMA und GARCH zu kombinieren, um die Preise n Perioden im Voraus vorherzusagen. Allerdings müssen wir warten, bis wir beide diskutiert sowohl ARIMA und GARCH separat, bevor wir sie auf eine echte Strategie anwenden Wie werden wir in diesem Artikel werden wir einige neue Zeitreihen-Konzepte, die gut für die restlichen Methoden, nämlich streng zu skizzieren Stationarität und dem Akaike-Informationskriterium (AIC). Im Anschluss an diese neuen Konzepte werden wir dem traditionellen Muster für das Studium neuer Zeitreihenmodelle folgen: Begründung - Die erste Aufgabe ist es, einen Grund dafür zu liefern, warum sich ein bestimmtes Modell als Quants interessierte. Warum stellen wir das Zeitreihenmodell vor Welche Auswirkungen kann es erfassen Was gewinnen wir (oder verlieren) durch Hinzufügen zusätzlicher Komplexität Definition - Wir müssen die vollständige mathematische Definition (und damit verbundene Notation) des Zeitreihenmodells zur Minimierung bereitstellen Jede Zweideutigkeit. Eigenschaften der zweiten Ordnung - Wir diskutieren (und in einigen Fällen) die Eigenschaften zweiter Ordnung des Zeitreihenmodells, das sein Mittel, seine Varianz und seine Autokorrelationsfunktion enthält. Correlogram - Wir verwenden die Eigenschaften zweiter Ordnung, um ein Korrektramm einer Realisierung des Zeitreihenmodells zu zeichnen, um sein Verhalten zu visualisieren. Simulation - Wir simulieren Realisierungen des Zeitreihenmodells und passen dann das Modell an diese Simulationen an, um sicherzustellen, dass wir genaue Implementierungen haben und den Anpassungsprozess verstehen. Echte Finanzdaten - Wir passen das Zeitreihenmodell auf echte Finanzdaten an und betrachten das Korrektramm der Residuen, um zu sehen, wie das Modell die serielle Korrelation in der ursprünglichen Serie berücksichtigt. Vorhersage - Wir erstellen n-Schritt-Voraus-Prognosen des Zeitreihenmodells für besondere Realisierungen, um letztendlich Handelssignale zu erzeugen. Fast alle Artikel, die ich auf Zeitreihenmodellen schreibe, werden in dieses Muster fallen und es wird uns erlauben, die Unterschiede zwischen jedem Modell leicht zu vergleichen, da wir weitere Komplexität hinzufügen. Wurden zu Beginn mit Blick auf strenge Stationarität und die AIC. Strengst stationär Wir haben die Definition der Stationarität in dem Artikel über die serielle Korrelation. Da wir jedoch in den Bereich vieler Finanzserien mit verschiedenen Frequenzen treten, müssen wir sicherstellen, dass unsere (eventuellen) Modelle die zeitlich variierende Volatilität dieser Serien berücksichtigen. Insbesondere müssen wir ihre Heteroskedastizität berücksichtigen. Wir werden auf dieses Problem stoßen, wenn wir versuchen, bestimmte Modelle zu historischen Serien zu passen. Grundsätzlich können nicht alle seriellen Korrelationen in den Resten von eingebauten Modellen berücksichtigt werden, ohne Heteroskedastizität zu berücksichtigen. Das bringt uns zurück zur Stationarität. Eine Serie ist nicht stationär in der Varianz, wenn sie zeitvariable Volatilität hat, per Definition. Dies motiviert eine rigorosere Definition der Stationarität, nämlich eine strenge Stationarität: Strengst stationäre Serie Ein Zeitreihenmodell ist streng stationär, wenn die gemeinsame statistische Verteilung der Elemente x, ldots, x die gleiche ist wie die von xm, ldots, xm, Für alle ti, m. Man kann an diese Definition nur denken, daß die Verteilung der Zeitreihen für jede zeitliche Verschiebung unverändert bleibt. Insbesondere sind das Mittel und die Varianz rechtzeitig für eine streng stationäre Reihe konstant und die Autokovarianz zwischen xt und xs (nur) hängt nur von der absoluten Differenz von t und s, t-s ab. In zukünftigen Beiträgen werden wir streng stationäre Serien besprechen. Akaike Information Criterion Ich erwähnte in früheren Artikeln, dass wir schließlich zu prüfen, wie die Wahl zwischen getrennten besten Modelle. Dies gilt nicht nur für die Zeitreihenanalyse, sondern auch für das maschinelle Lernen und generell für die Statistik im Allgemeinen. Die beiden Hauptmethoden (vorläufig) sind das Akaike Information Criterion (AIC) und das Bayesian Information Criterion (wie wir mit unseren Artikeln über Bayesian Statistics weiter vorankommen). Nun kurz die AIC, wie es in Teil 2 des ARMA Artikel verwendet werden. AIC ist im Wesentlichen ein Hilfsmittel zur Modellauswahl. Das heißt, wenn wir eine Auswahl von statistischen Modellen (einschließlich Zeitreihen) haben, dann schätzt die AIC die Qualität jedes Modells, relativ zu den anderen, die wir zur Verfügung haben. Es basiert auf Informationstheorie. Das ist ein sehr interessantes, tiefes Thema, das wir leider nicht in zu viel Detail gehen können. Es versucht, die Komplexität des Modells, die in diesem Fall bedeutet die Anzahl der Parameter, wie gut es passt die Daten. Lets eine Definition: Akaike Information Criterion Wenn wir die Likelihood-Funktion für ein statistisches Modell, das k Parameter hat, und L maximiert die Wahrscheinlichkeit. Dann ist das Akaike Information Criterion gegeben durch: Das bevorzugte Modell, aus einer Auswahl von Modellen, hat die minium AIC der Gruppe. Sie können sehen, dass die AIC wächst mit der Anzahl der Parameter, k, erhöht, aber reduziert wird, wenn die negative Log-Likelihood erhöht. Im Wesentlichen bestraft sie Modelle, die übermäßig sind. Wir werden AR, MA und ARMA Modelle von unterschiedlichen Aufträgen erstellen und eine Möglichkeit, das beste Modell zu wählen, das zu einem bestimmten Datensatz passt, ist, die AIC zu verwenden. Dies ist, was gut tun, im nächsten Artikel, vor allem für ARMA Modelle. Autoregressive (AR) Modelle der Ordnung p Das erste Modell, das die Grundlage von Teil 1 bildet, ist das autoregressive Modell der Ordnung p, oft verkürzt zu AR (p). Im vorherigen Artikel betrachteten wir den zufälligen Weg. Wobei jeder Term xt nur von dem vorherigen Term x und einem stochastischen weißen Rauschterm abhängt, wt: Das autoregressive Modell ist einfach eine Erweiterung des zufälligen Wegs, der Terme weiter zurück in der Zeit enthält. Die Struktur des Modells ist linear. Das heißt, das Modell hängt linear von den vorherigen Bedingungen ab, wobei für jeden Term Koeffizienten vorliegen. Dies ist, wo die regressive kommt aus der autoregressive. Es ist im Wesentlichen ein Regressionsmodell, bei dem die vorherigen Begriffe die Prädiktoren sind. Autoregressives Modell der Ordnung p Ein Zeitreihenmodell ist ein autoregressives Modell der Ordnung p. AR (p), wenn: begin xt alpha1 x ldots alphap x wt sum p alpha x wt end Wo ist weißes Rauschen und alpha in mathbb, mit alphap neq 0 für einen autoregressiven p-order Prozess. Wenn wir den Backward Shift Operator betrachten. (Siehe vorheriger Artikel), dann können wir das obige als eine Funktion theta folgendermaßen umschreiben: begin thetap () xt (1 - alpha1 - alpha2 2 - ldots - alphap) xt wt Ende Vielleicht das erste, was über das AR (p) Ist, dass ein zufälliger Weg einfach AR (1) mit alpha1 gleich Eins ist. Wie oben erwähnt, ist das autogressive Modell eine Erweiterung des zufälligen Weges, so dass dies sinnvoll ist. Es ist einfach, Vorhersagen mit dem AR (p) - Modell zu jeder Zeit t vorzunehmen, sobald wir die alphai-Koeffizienten, unsere Schätzung, bestimmt haben Wird einfach: anfangen Hut t alpha1 x ldots alphap x end So können wir n-Schritt voraus Prognosen durch die Herstellung Hut t, Hut, Hut, etc. bis zu Hut. Tatsächlich werden wir, wenn wir die ARMA-Modelle in Teil 2 betrachten, die R-Vorhersagefunktion verwenden, um Prognosen (zusammen mit Standardfehler-Konfidenzintervallbändern) zu erzeugen, die uns helfen, Handelssignale zu erzeugen. Stationarität für autoregressive Prozesse Eines der wichtigsten Aspekte des AR (p) - Modells ist, dass es nicht immer stationär ist. Tatsächlich hängt die Stationarität eines bestimmten Modells von den Parametern ab. Ive berührte dieses vorher in einem vorhergehenden Artikel. Um zu bestimmen, ob ein AR (p) - Prozeß stationär ist oder nicht, müssen wir die charakteristische Gleichung lösen. Die charakteristische Gleichung ist einfach das autoregressive Modell, geschrieben in Rückwärtsverschiebung Form, auf Null gesetzt: Wir lösen diese Gleichung für. Damit das bestimmte autoregressive Verfahren stationär ist, brauchen wir alle Absolutwerte der Wurzeln dieser Gleichung, um Eins zu übersteigen. Dies ist eine äußerst nützliche Eigenschaft und ermöglicht es uns schnell zu berechnen, ob ein AR (p) - Prozeß stationär ist oder nicht. Wir betrachten einige Beispiele, um diese Idee konkret zu machen: Random Walk - Der AR (1) Prozess mit alpha1 1 hat die charakteristische Gleichung theta 1 -. Offensichtlich hat diese Wurzel 1 und als solche ist nicht stationär. AR (1) - Wenn wir alpha1 frac wählen, erhalten wir xt frac x wt. Dies ergibt eine charakteristische Gleichung von 1 - frac 0, die eine Wurzel von 4 gt 1 hat und somit dieses AR (1) - Verfahren stationär ist. AR (2) - Wenn wir alpha1 alpha2 frac setzen, erhalten wir xt frac x frac x wt. Seine charakteristische Gleichung wird - frac () () 0, die zwei Wurzeln von 1, -2 ergibt. Da es sich um eine Einheitswurzel handelt, handelt es sich um eine nichtstationäre Serie. Andere AR (2) - Serien können jedoch stationär sein. Eigenschaften der zweiten Ordnung Der Mittelwert eines AR (p) - Prozesses ist Null. Allerdings sind die Autokovarianzen und Autokorrelationen durch rekursive Funktionen, bekannt als die Yule-Walker-Gleichungen gegeben. Die vollständigen Eigenschaften sind unten angegeben: begin mux E (xt) 0 end begin gammak sum p alpha gamma, enspace k 0 end begin rhok sum p alphai rho, enspace k 0 end Beachten Sie, dass es notwendig ist, die alpha-Parameterwerte vor zu kennen Berechnen der Autokorrelationen. Nachdem wir die Eigenschaften zweiter Ordnung angegeben haben, können wir verschiedene Ordnungen von AR (p) simulieren und die entsprechenden Korrektramme darstellen. Simulationen und Correlogramme Beginnen wir mit einem AR (1) - Prozess. Dies ist ähnlich einem zufälligen Weg, außer dass alpha1 nicht gleich Eins haben muss. Unser Modell wird alpha1 0,6 haben. Der R-Code für die Erzeugung dieser Simulation ist wie folgt gegeben: Beachten Sie, dass unsere for-Schleife von 2 bis 100, nicht 1 bis 100, als xt-1 ausgeführt wird, wenn t0 nicht indexierbar ist. Ähnlich für AR (p) Prozesse höherer Ordnung muss t in dieser Schleife von p bis 100 reichen. Wir können die Realisierung dieses Modells und seines zugehörigen Korrelogramms mit Hilfe der Layout-Funktion darstellen: Wir wollen nun versuchen, einen AR (p) - Prozeß an die soeben erzeugten simulierten Daten anzupassen, um zu sehen, ob wir die zugrunde liegenden Parameter wiederherstellen können. Sie können daran erinnern, dass wir ein ähnliches Verfahren in dem Artikel über weiße Rauschen und zufällige Wanderungen durchgeführt. Wie sich herausstellt, bietet R einen nützlichen Befehl ar, um autoregressive Modelle zu passen. Wir können diese Methode verwenden, um uns zuerst die beste Ordnung p des Modells zu erzählen (wie durch die AIC oben bestimmt) und liefern uns mit Parameterschätzungen für das alphai, die wir dann verwenden können, um Konfidenzintervalle zu bilden. Für die Vollständigkeit können wir die x-Reihe neu erstellen: Jetzt verwenden wir den ar-Befehl, um ein autoregressives Modell an unseren simulierten AR (1) - Prozess anzupassen, wobei die maximale Wahrscheinlichkeitsschätzung (MLE) als Anpassungsverfahren verwendet wird. Wir werden zunächst die beste erhaltene Ordnung extrahieren: Der ar Befehl hat erfolgreich festgestellt, dass unser zugrunde liegendes Zeitreihenmodell ein AR (1) Prozess ist. Wir erhalten dann die Alpha-Parameter (s) Schätzungen: Die MLE-Prozedur hat eine Schätzung erzeugt, Hut 0,523, die etwas niedriger als der wahre Wert von alpha1 0,6 ist. Schließlich können wir den Standardfehler (mit der asymptotischen Varianz) verwenden, um 95 Konfidenzintervalle um den / die zugrunde liegenden Parameter zu konstruieren. Um dies zu erreichen, erstellen wir einfach einen Vektor c (-1.96, 1.96) und multiplizieren ihn dann mit dem Standardfehler: Der wahre Parameter fällt in das 95 Konfidenzintervall, da wir von der Tatsache erwarten, dass wir die Realisierung aus dem Modell spezifisch generiert haben . Wie wäre es, wenn wir die alpha1 -0.6 ändern, können wir wie folgt ein AR (p) - Modell mit ar: Wiederherstellen wir die richtige Reihenfolge des Modells, mit einer sehr guten Schätzung Hut -0.597 von alpha1-0.6. Wir sehen auch, dass der wahre Parameter wieder innerhalb des Konfidenzintervalls liegt. Fügen wir mehr Komplexität zu unseren autoregressiven Prozessen hinzu, indem wir ein Modell der Ordnung 2 simulieren. Insbesondere setzen wir alpha10.666, setzen aber auch alpha2 -0.333. Heres den vollständigen Code, um die Realisierung zu simulieren und zu plotten, sowie das Korrelogram für eine solche Serie: Wie zuvor können wir sehen, dass sich das Korrelogramm signifikant von dem des weißen Rauschens unterscheidet, wie man es erwarten kann. Es gibt statistisch signifikante Peaks bei k1, k3 und k4. Wieder einmal wollten wir den ar-Befehl verwenden, um ein AR (p) - Modell zu unserer zugrundeliegenden AR (2) Realisierung zu passen. Die Prozedur ist ähnlich wie bei der AR (1) - Sitzung: Die korrekte Reihenfolge wurde wiederhergestellt und die Parameterschätzungen Hut 0.696 und Hut -0.395 sind nicht zu weit weg von den wahren Parameterwerten von alpha10.666 und alpha2-0.333. Beachten Sie, dass wir eine Konvergenz-Warnmeldung erhalten. Beachten Sie auch, dass R tatsächlich die arima0-Funktion verwendet, um das AR-Modell zu berechnen. AR (p) - Modelle sind ARIMA (p, 0, 0) - Modelle und somit ein AR-Modell ein Spezialfall von ARIMA ohne Moving Average (MA) - Komponente. Nun auch mit dem Befehl arima, um Konfidenzintervalle um mehrere Parameter zu erstellen, weshalb wir vernachlässigt haben, es hier zu tun. Nachdem wir nun einige simulierte Daten erstellt haben, ist es an der Zeit, die AR (p) - Modelle auf finanzielle Asset-Zeitreihen anzuwenden. Financial Data Amazon Inc. Lets beginnen mit dem Erwerb der Aktienkurs für Amazon (AMZN) mit quantmod wie im letzten Artikel: Die erste Aufgabe ist es, immer den Preis für eine kurze visuelle Inspektion. In diesem Fall auch die täglichen Schlusskurse: Youll bemerken, dass quantmod einige Formatierungen für uns, nämlich das Datum, und ein etwas hübscheres Diagramm als die üblichen R-Diagramme hinzufügt: Wir werden jetzt die logarithmische Rückkehr von AMZN und dann die erste nehmen Um die ursprüngliche Preisreihe von einer nichtstationären Serie auf eine (potentiell) stationäre zu konvertieren. Dies ermöglicht es uns, Äpfel mit Äpfeln zwischen Aktien, Indizes oder anderen Vermögenswerten zu vergleichen, für die Verwendung in späteren multivariaten Statistiken, wie bei der Berechnung einer Kovarianzmatrix. Wenn Sie eine ausführliche Erklärung, warum Protokoll Rückkehr bevorzugen möchten, werfen Sie einen Blick auf diesen Artikel über bei Quantivity. Erstellt eine neue Serie, amznrt. Um unsere differenzierten Logarithmen zurückzuhalten: Wieder einmal können wir die Serie darstellen: In diesem Stadium wollen wir das Korrektramm zeichnen. Sie suchten, um zu sehen, ob die differenzierte Reihe wie weißes Rauschen aussieht. Wenn es nicht dann gibt es unerklärliche serielle Korrelation, die durch ein autoregressives Modell erklärt werden könnte. Wir bemerken einen statistisch signifikanten Peak bei k2. Daher gibt es eine vernünftige Möglichkeit der unerklärlichen seriellen Korrelation. Seien Sie sich jedoch bewusst, dass dies aufgrund der Stichprobe. Als solches können wir versuchen, ein AR (p) - Modell an die Serie anzupassen und Konfidenzintervalle für die Parameter zu erzeugen: Die Anpassung des ar-autoregressiven Modells an die erste Reihe differenzierte Serien von Logarithmen erzeugt ein AR (2) - Modell mit Hut -0,0278 Und hat -0.0687. Ive auch die aysmptotische Varianz, so dass wir berechnen können Standard-Fehler für die Parameter und erzeugen Vertrauen Intervalle. Wir wollen sehen, ob null Teil des 95 Konfidenzintervalls ist, als ob es ist, es reduziert unser Vertrauen, dass wir ein echtes zugrunde liegendes AR (2) - Verfahren für die AMZN-Serie haben. Um die Konfidenzintervalle auf der 95-Ebene für jeden Parameter zu berechnen, verwenden wir die folgenden Befehle. Wir nehmen die Quadratwurzel des ersten Elements der asymptotischen Varianzmatrix auf, um einen Standardfehler zu erzeugen, dann erstellen Sie Konfidenzintervalle, indem wir sie mit -1,96 bzw. 1,96 für die 95-Ebene multiplizieren: Beachten Sie, dass dies bei Verwendung der Arima-Funktion einfacher wird , Aber gut bis Teil 2 warten, bevor es richtig eingeführt. Somit können wir sehen, dass für alpha1 Null innerhalb des Konfidenzintervalls enthalten ist, während für alpha2 Null nicht im Konfidenzintervall enthalten ist. Daher sollten wir sehr vorsichtig sein, wenn wir denken, dass wir tatsächlich ein zugrundeliegendes generatives AR (2) - Modell für AMZN haben. Insbesondere berücksichtigen wir, dass das autoregressive Modell nicht das Volatilitäts-Clustering berücksichtigt, was zu einer Clusterbildung der seriellen Korrelation in finanziellen Zeitreihen führt. Wenn wir die ARCH - und GARCH-Modelle in späteren Artikeln betrachten, werden wir dies berücksichtigen. Wenn wir kommen, um die volle Arima-Funktion in den nächsten Artikel verwenden, werden wir Vorhersagen der täglichen Log-Preis-Serie, um uns zu ermöglichen, Trading-Signale zu schaffen. SampP500 US Equity Index Zusammen mit einzelnen Aktien können wir auch den US Equity Index, den SampP500, berücksichtigen. Lets alle vorherigen Befehle zu dieser Serie und produzieren die Plots wie zuvor: Wir können die Preise: Wie zuvor, erstellen Sie auch die erste Ordnung Differenz der Log-Schlusskurse: Wieder einmal können wir die Serie plotten: Es ist klar Aus diesem Diagramm, dass die Volatilität nicht in der Zeit stationär ist. Dies spiegelt sich auch in der Darstellung des Korrelogramms wider. Es gibt viele Peaks, einschließlich k1 und k2, die statistisch signifikant über ein weißes Rauschmodell hinausgehen. Darüber hinaus sehen wir Hinweise auf Langzeitgedächtnisprozesse, da es einige statistisch signifikante Peaks bei k16, k18 und k21 gibt: Letztendlich benötigen wir ein komplexeres Modell als ein autoregressives Modell der Ordnung p. Allerdings können wir in diesem Stadium noch versuchen, ein solches Modell anzupassen. Wir sehen, was wir bekommen, wenn wir dies tun: Mit ar erzeugt ein AR (22) - Modell, dh ein Modell mit 22 Nicht-Null-Parametern Was bedeutet dies sagen uns Es ist bezeichnend, dass es wahrscheinlich viel mehr Komplexität in der seriellen Korrelation als Ein einfaches lineares Modell der vergangenen Preise kann wirklich erklären. Jedoch wussten wir dies bereits, weil wir sehen können, dass es eine signifikante serielle Korrelation in der Volatilität gibt. Betrachten wir zum Beispiel die sehr volatile Periode um 2008. Dies motiviert den nächsten Satz von Modellen, nämlich den Moving Average MA (q) und den autoregressiven Moving Average ARMA (p, q). Nun lernen Sie über diese beiden in Teil 2 dieses Artikels. Wie wir immer wieder erwähnen, werden diese letztlich zur ARIMA - und GARCH-Modellfamilie führen, die beide eine viel bessere Anpassung an die serielle Korrelationskomplexität des Samp500 bieten. Dadurch können wir unsere Prognosen signifikant verbessern und letztendlich rentabler gestalten. Klicken Sie unten, um mehr darüber zu erfahren. Die Informationen auf dieser Website ist die Meinung der einzelnen Autoren auf der Grundlage ihrer persönlichen Beobachtung, Forschung und jahrelange Erfahrung. Der Herausgeber und seine Autoren sind nicht registrierte Anlageberater, Rechtsanwälte, CPAs oder andere Finanzdienstleister und machen keine Rechts-, Steuer-, Rechnungswesen, Anlageberatung oder andere professionelle Dienstleistungen. Die Informationen, die von dieser Web site angeboten werden, sind nur allgemeine Ausbildung. Weil jeder Einzelne sachliche Situation anders ist, sollte der Leser seinen persönlichen Berater suchen. Weder der Autor noch der Herausgeber übernehmen jegliche Haftung oder Verantwortung für Fehler oder Unterlassungen und haben weder eine Haftung noch Verantwortung gegenüber Personen oder Körperschaften in Bezug auf Schäden, die direkt oder indirekt durch die auf dieser Website enthaltenen Informationen verursacht oder vermutet werden. Benutzung auf eigene Gefahr. Darüber hinaus kann diese Website erhalten finanzielle Entschädigung von den Unternehmen erwähnt durch Werbung, Affiliate-Programme oder auf andere Weise. Preise und Angebote von Inserenten auf dieser Website ändern sich häufig, manchmal ohne Vorankündigung. Während wir uns bemühen, rechtzeitige und genaue Informationen aufrechtzuerhalten, können Angebot Details veraltet sein. Besucher sollten daher die Bedingungen dieser Angebote vor der Teilnahme an ihnen überprüfen. Der Autor und sein Herausgeber haften nicht für die Aktualisierung der Informationen und haften nicht für Inhalte, Produkte und Dienstleistungen von Drittanbietern, auch wenn sie über Hyperlinks oder Anzeigen auf dieser Website aufgerufen werden.
Das Options-Futures-Handbuch Lernen Sie den Optionshandel und profitieren Sie von jeder Marktkondition. Verstehen Sie, wie Sie den Optionsmarkt mit dem breiten Spektrum von Optionsstrategien handeln. Entdecken Sie neue Handelsmöglichkeiten und die verschiedenen Möglichkeiten, Ihr Anlageportfolio mit Rohstoff - und Finanz-Futures zu diversifizieren. Um Ihnen zu helfen, auf Ihrem Weg zum Verständnis der komplexen Welt der Finanzderivate. Bieten wir Ihnen eine umfassende Futures und Optionen Trading Ausbildung Ressource, die detaillierte Tutorials, Tipps und Ratschläge hier bei The Options Guide enthält. Optionen Strategy Search Engine Profitgraphen sind visuelle Darstellungen der möglichen Ergebnisse von Optionsstrategien. Gewinne oder Verluste werden auf der vertikalen Achse abgebildet, während der zugrunde liegende Aktienkurs am Verfallsdatum auf der horizontalen Achse abgebildet wird. Option Grundlagen: Was sind Aktienoptionen Bevor Sie Handel Optionen beginnen, sollten Sie wissen, wa...
Comments
Post a Comment