You039d Besser wissen, Ihre High-Frequency Trading Terminologie Der Aufschwung der Investoren Interesse an Hochfrequenz-Handel (HFT) wichtig für die Industrie-Profis zu kommen, um mit HFT-Terminologie zu beschleunigen. Eine Reihe von HFT-Begriffen hat ihren Ursprung in der Computer-Netzwerk - / Systemindustrie, was zu erwarten ist, da HFT auf einer unglaublich schnellen Computerarchitektur und einer hochmodernen Software basiert. Wir kurz diskutieren unten 10 wichtigsten HFT-Begriffe, die wir glauben, sind von wesentlicher Bedeutung, um ein Verständnis des Themas zu gewinnen. Co-Lokalisierung Lokalisierung von Computern von HFT-Firmen und proprietären Händlern in denselben Räumlichkeiten, in denen ein Austausch von Computer-Servern untergebracht ist. Dies ermöglicht es HFT-Firmen, den Aktienkurs eine halbe Sekunde vor dem Rest der investierenden Öffentlichkeit zu erreichen. Co-Location hat sich zu einem lukrativen Geschäft für den Austausch, die HFT Unternehmen Millionen von Dollar für das Privileg der geringen Latenz zugreifen. Wie Michael Lewis in seinem Buch Flash Boys erläutert, ist die große Nachfrage nach Co-Location ein wichtiger Grund, warum einige Börsen ihre Rechenzentren erheblich erweitert haben. Während das alte New Yorker Börsengebäude 46.000 Quadratfuß besetzte, ist das NYSE Euronext Rechenzentrum in Mahwah, New Jersey, fast neunmal größer, bei 398.000 Quadratfuß. Flash Trading Eine Art von HFT-Handel, bei dem eine Börse Informationen über Kauf - und Verkaufsaufträge von Marktteilnehmern an HFT-Firmen für einige Bruchteile einer Sekunde blendet, bevor die Informationen der Öffentlichkeit zugänglich gemacht werden. Flash-Handel ist umstritten, weil HFT-Unternehmen können diese Informationen Flanke zu handeln, bevor noch ausstehende Aufträge, die als Frontbetrieb ausgelegt werden können. US-Senator Charles Schumer hatte die Securities and Exchange Commission im Juli 2009 aufgefordert, Flash-Handel zu verbieten und sagte, dass es ein zweistufiges System geschaffen habe, in dem eine privilegierte Gruppe eine bevorzugte Behandlung erhalten würde, während Einzelhandels - und institutionelle Anleger einen unfairen Nachteil ergriffen und entzogen wurden Einen fairen Preis für ihre Transaktionen. Die Zeit, die von dem Moment an, zu dem ein Signal an seinen Empfang gesendet wird, verstreicht. Da niedrigere Latenzzeiten schneller sind, investieren Hochfrequenz-Händler stark, um die schnellste Computerhardware, Software und Datenleitungen zu erhalten, um Aufträge so schnell wie möglich auszuführen und im Handel einen Wettbewerbsvorteil zu erlangen. Die größte Determinante der Latenzzeit ist die Entfernung, die das Signal durchlaufen muss, oder die Länge des physikalischen Kabels (üblicherweise Faseroptik), die Daten von einem Punkt zu einem anderen transportiert. Da Licht in einem Vakuum bei 186.000 Meilen pro Sekunde oder 186 Meilen pro Millisekunde fährt, würde ein HFT-Unternehmen mit seinen Servern, die sich direkt innerhalb eines Austauschs befinden, eine viel niedrigere Latenz und somit einen Handelsrand aufweisen als ein Konkurrenzunternehmen, das Meilen entfernt liegt. Interessanterweise erhält ein Austausch-Co-Standort-Client die gleiche Menge an Kabellänge, unabhängig davon, wo sie sich innerhalb der Austauschräume befinden, um so sicherzustellen, dass sie dieselbe Latenz aufweisen. Liquiditätsrabatte Die meisten Börsen haben ein Makler-Taker-Modell für die Subventionierung der Bereitstellung von Aktien-Liquidität verabschiedet. In diesem Modell erhalten Anleger und Händler, die Limit-Orders in der Regel erhalten eine kleine Rabatt von der Börse bei der Ausführung ihrer Aufträge, weil sie als zur Liquidität in der Aktie beigetragen haben, d. H. Sie sind Liquidität Entscheidungsträger. Umgekehrt werden diejenigen, die Marktanweisungen einführen, als Abnehmer von Liquidität angesehen und sind eine bescheidene Gebühr von der Börse für ihre Aufträge belastet. Während die Rabatte sind in der Regel Bruchteile von einem Cent pro Aktie, können sie bis zu erheblichen Mengen über die Millionen von Aktien gehandelt täglich von Hochfrequenz-Händler. Viele HFT-Unternehmen setzen Handelsstrategien ein, die so konzipiert sind, dass sie möglichst viele Liquiditätsrabatte erfassen. Matching Engine Der Software-Algorithmus, der den Kern eines Börsenhandelssystems bildet und kontinuierlich auf Kauf - und Verkaufsaufträge abgestimmt ist, eine Funktion, die zuvor von Spezialisten auf dem Trading Floor durchgeführt wurde. Da die Matching Engine allen Käufern und Verkäufern gleichkommt, ist sie für das reibungslose Funktionieren einer Börse von entscheidender Bedeutung. Die passende Engine befindet sich in den Austausch-Computern und ist der Hauptgrund, warum HFT-Firmen versuchen, in so enge Nähe zu den Exchange-Servern wie sie nur können. Bezieht sich auf die Taktik der Eingabe von kleinen marktfähigen Bestellungen in der Regel für 100 Aktien, um über große versteckte Aufträge in dunklen Pools oder Börsen zu lernen. Während Sie denken, Pinging als analog zu einem Schiff oder U-Boot-Senden von Sonar-Signale zu erkennen, bevorstehende Hindernisse oder feindliche Schiffe, im HFT-Kontext, pinging wird verwendet, um versteckte Beute zu finden. Heres, wie - kaufen-Seite Firmen algorithmische Handelssysteme verwenden, um große Aufträge in viel kleinere aufzulösen und sie stetig in den Markt zu füttern, um die Marktauswirkung der großen Aufträge zu verringern. Um das Vorhandensein derartiger Großaufträge zu erfassen, stellen HFT-Unternehmen Angebote und Angebote in 100-Stück-Los für jeden gelisteten Bestand bereit. Sobald eine Firma einen Ping bekommt (dh die HFTs kleiner Auftrag ausgeführt wird) oder eine Reihe von Pings, die die HFT auf das Vorhandensein eines großen Buy-Side-Auftrags hinweist, kann sie eine räuberische Handelstätigkeit ausüben, die eine nahezu risikofreie Sicherheit gewährleistet Gewinn auf Kosten der Buy-Sider, die am Ende erhalten einen ungünstigen Preis für seine große Bestellung. Pinging wurde mit dem Ködern von einigen einflussreichen Marktteilnehmern verglichen, da sein einziger Zweck darin besteht, Institutionen mit großen Aufträgen zu locken, um ihre Hand zu enthüllen. Point of Presence Der Punkt, an dem Händler eine Verbindung herstellen. Um die Latenz zu reduzieren, ist es das Ziel der HFT-Firmen, sich so nahe wie möglich an die Präsenz zu bringen. Siehe auch Co-Location. Predatory Trading Trading-Praktiken von einigen Hochfrequenz-Händlern eingesetzt, um fast risikofreie Gewinne auf Kosten der Investoren zu machen. In Lewis Buch, die IEX-Börse. Die einige der schattigen HFT pratcices zu bekämpfen sucht, identifiziert drei Aktivitäten, die räuberische Trading: Slow Markt Arbitrage oder Latenz Arbitrage, in denen ein Hochfrequenz-Händler Arbitrages minimiert Preisunterschiede der Bestände zwischen verschiedenen Börsen. Elektronischer Frontlauf, bei dem ein HFT-Unternehmen vor einem großen Kundenauftrag an einer Börse steht, alle Anteile an verschiedenen anderen Börsen (falls es sich um eine Kauforder handelt) oder auf alle Gebote (wenn es sich um einen Verkauf handelt Bestellung), und dann drehen und verkaufen sie an (oder kaufen sie aus) der Client und Taschen der Differenz. Bonus-Arbitrage beinhaltet HFT-Aktivität, die versucht, Liquiditätsabschläge, die von Börsen angeboten werden, zu erfassen, ohne wirklich zur Liquidität beizutragen. Siehe auch Liquiditätsabschläge. Securities Information Processor Die Technologie, die verwendet wird, um Zitat - und Handelsdaten von verschiedenen Börsen zu sammeln, diese Daten zusammenzufassen und zu konsolidieren und kontinuierlich Echtzeit-Preisangebote und Trades für alle Aktien zu verbreiten. Der SIP berechnet für alle Bestände das National Best Bid und Offer (NBBO), hat aber aufgrund der schieren Menge an Daten, die er zu behandeln hat, eine endliche Latenzzeit. Eine SIPs-Latenz bei der Berechnung der NBBO ist in der Regel höher als die von HFT-Firmen (wegen der schnelleren Computer und Co-Location), und es ist dieser Unterschied in der Latenz von Lewis geschätzt gelegentlich erreichen so viel wie 25 Millisekunden, die an der Kern der räuberischen HFT-Aktivität. Nasdaq OMX Group und NYSE Euronext betreiben jeweils ein SIP im Auftrag der 11 Börsen der U. S. Smart Routers Technologie, die festlegt, zu welchen Börsenaufträgen oder Trades gesendet werden. Intelligente Fräser können programmiert werden, um Stücke von großen Aufträgen (nachdem sie durch einen Handelsalgorithmus aufgebrochen werden) zu senden, um eine kostengünstige Handelsausführung zu erhalten. Ein intelligenter Router wie ein sequentieller kostengünstiger Router kann einen Auftrag an einen dunklen Pool und dann an eine Vermittlungsstelle (falls er nicht in dem früheren Fall ausgeführt wird) oder an eine Vermittlungsstelle, bei der es wahrscheinlicher ist, einen Liquiditätsrabatt zu erhalten, leiten. Die Bottom Line HFT hat in den letzten Jahren Wellen und Kräuselfedern (zur Verwendung einer gemischten Metapher) gemacht. Aber unabhängig von Ihrer Meinung über Hochfrequenz-Handel, sollten Sie vertraut mit diesen HFT-Begriffe sollten Sie Ihr Verständnis für dieses umstrittene Thema zu verbessern. Alle Zeit hören Sie über Hochfrequenz-Handel (HFT) und wie verdammt schnell die Algorithmen sind. Aber ich frage mich - was ist schnell in diesen Tagen Im nicht Denken über die Latenz, die durch die physische Distanz zwischen einem Austausch und dem Server läuft eine Handels-Anwendung, aber die Latenz durch das Programm selbst eingeführt. Genauer gesagt: Was ist die Zeit von Ereignissen, die auf dem Draht in einer Anwendung zu dieser Anwendung kommen, gibt eine Bestellung / einen Preis auf dem Draht aus. Tick-to-trade Zeit. Sind wir reden Sub-Millisekunde oder Sub-Mikrosekunde Wie erreichen Menschen diese Latenzen Codierung in der Montage FPGAs Good-old C-Code Theres vor kurzem wurde ein interessanter Artikel über ACM veröffentlicht, die eine Menge Details in der heutigen HFT-Technologie, die eine ausgezeichnete lesen : QuotOn der Drahtquot ist Art einer Fuzzy-Grenze. Es braucht Zeit, bis ein vollständiges Datenpaket ankommt, und ein Teil der Verarbeitung kann bereits begonnen haben, bevor die gesamte Nachricht empfangen worden ist. Alles ist verzerrt durch die verschiedenen Schichten des Speichersystems und des Kernels und der Anwendung, und die Leute achten genau auf diese Schräge. Ndash sh1 Im der CTO eines kleinen Unternehmens, das FPGA-basierte HFT-Systeme herstellt und verkauft. Mit dem Aufbau unserer Systeme auf der Solarflare Application Onload Engine (AOE) haben wir die Latenz von einem interessanten Marktereignis auf dem Draht (10Gb / S UDP-Marktdatenzuführung von ICE oder CME) auf das erste Byte des resultierenden Auftrags konsequent geliefert Nachricht, die den Draht im Bereich von 750 bis 800 Nanosekunden trifft (ja, Sub-Mikrosekunde). Wir gehen davon aus, dass unsere nächsten Versions-Systeme im Bereich von 704 bis 710 Nanosekunden liegen. Einige Leute haben etwas weniger behauptet, aber das ist in einer Laborumgebung und nicht wirklich sitzen an einem COLO in Chicago und Clearing der Aufträge. Die Kommentare über Physik und Lichtgeschwindigkeit sind gültig, aber nicht relevant. Jeder, der über HFT ernst ist, hat seine Server an einem COLO im Raum neben dem Austauschserver. Um in diese Sub-Mikrosekunde Domain können Sie nicht sehr viel auf der Host-CPU außer Feed-Strategie Umsetzung Befehle an die FPGA, auch mit Technologien wie Kernel-Bypass haben Sie 1,5 Mikrosekunden unvermeidlichen Overhead. So dass in diesem Bereich spielt alles mit FPGAs. Eine der anderen Antworten ist sehr ehrlich zu sagen, dass in diesem sehr geheimnisvollen Markt nur sehr wenige Leute über die verwendeten Werkzeuge oder ihre Leistung sprechen. Jeder unserer Kunden verlangt, dass wir nicht einmal sagen, jeder, dass sie unsere Werkzeuge verwenden, noch offenbaren nichts über, wie sie sie verwenden. Dies macht nicht nur das Marketing hart, aber es verhindert wirklich den guten Fluss der technischen Kenntnisse zwischen Peers. Aufgrund dieser Notwendigkeit, in exotische Systeme für die wicked schnell Teil des Marktes youll finden, dass die Quants (die Leute, die kommen mit den Algorithmen, die wir machen schnell gehen) teilen ihre Algos in Event-to-Response-Zeit Schichten. Ganz oben auf der Technologie-Heap sind die Sub-Mikrosekunden-Systeme (wie unsere). Die nächste Schicht sind die benutzerdefinierten C-Systeme, die starken Einsatz von Kernel-Bypass und theyre in der 3-5 Mikrosekunde Bereich. Die nächste Schicht sind die Leute, die sich nicht leisten können, auf einem 10Gb / S-Draht nur ein Router-Hop aus der Börse zu sein, können sie noch bei COLOs aber wegen eines bösen Spiel, das wir Port Roulette theyre in den Dutzenden bis Hunderte von microsecond Domain . Sobald man in Millisekunden seine fast nicht mehr HFT. Antwortete am 27. Februar 14 um 23:00 Uhr Brian, möchten Sie vielleicht wissen, dass Ihre Linked-In-URL glücklicherweise nicht funktioniert. Ndash user3666197 Quecksilber-Minerva: was meinst du mit quotport roulettequot hier ndash rahul. deshmukhpatil quote roulettequot bezieht sich auf die Zuweisung von Häfen an Kunden durch den Austausch, in einer Umgebung, in der Nicht alle Ports haben den gleichen Hop-Abstand von dem Quellserver und / oder der gleichen Netzwerkhardware. Wenn Sie einen neuen Anschluss anfordern, ist es ein Glücksspiel (das quotroulettequot Teil), ob Sie einen Hafen mit guter Latenz oder nicht erhalten. Ndash David Arnold Guten Artikel, der beschreibt, was ist der Zustand der HFT (im Jahr 2011) und gibt einige Beispiele von Hardware-Lösungen, die Nanosekunden erreichbar macht: Wall Streets Need For Trading Geschwindigkeit: Die Nanosekunde Alter Mit dem Rennen für Die niedrigste Latenz weiter, einige Marktteilnehmer sprechen sogar über picosecondstrillionths einer Sekunde. EDIT: Wie Nicholas freundlich erwähnt: Der Link erwähnt eine Firma, Fixnetix, die einen Handel in 740ns vorbereiten kann (d. H. Die Zeit von einem Eingangsereignis auftritt, um eine Bestellung gesendet wird). Antwort # 1 am: Juli 13, 2010, 09:10:41 am »sll 40,6k 9679 10 9679 64 9679 114 Der Link erwähnt eine Firma, Fixnetix, die vorbereiten kann ein tradequot in 740ns (d. H. Die Zeit von einem Eingangsereignis auftritt, um eine Bestellung gesendet wird). Ndash Nicholas Richtig, das ist ein wichtiger Punkt. Ich werde die Antwort bearbeiten und fügen Sie diese, danke ndash sll Heute ist einstellige tick-to-trade in Mikrosekunden ist die Bar für wettbewerbsfähige HFT-Firmen. Sie sollten in der Lage, hohe einstellige Zahlen mit nur Software zu tun. Dann lt5 usec mit zusätzlicher Hardware. Für das, was seinen Wert, TIBCOs FTL-Messaging-Produkt ist Sub-500 ns für innerhalb einer Maschine (shared memory) und ein paar Mikrosekunden mit RDMA (Remote Direct Memory Access) in einem Rechenzentrum. Danach wird die Physik zum Hauptbestandteil der Gleichung. So ist die Geschwindigkeit, mit der Daten vom Feed zur App kommen können, die Entscheidungen trifft. Mindestens ein System hat behauptet, 30ns interthread messaging, die wahrscheinlich eine optimierte Benchmark, so dass jeder spricht von niedrigeren Zahlen ist mit einer Art von magischen CPU. Sobald Sie in der App sind, ist es nur eine Frage, wie schnell das Programm Entscheidungen treffen kann. Training Floor Architecture Trading Floor Architecture Executive Übersicht Erhöhte Konkurrenz, höhere Marktdatenvolumen und neue regulatorische Anforderungen sind einige der treibenden Kräfte hinter Branchenveränderungen . Unternehmen versuchen, ihre Wettbewerbsfähigkeit durch eine ständige Änderung ihrer Handelsstrategien und die Erhöhung der Geschwindigkeit des Handels. Eine tragfähige Architektur muss die neuesten Technologien aus Netzwerk - und Anwendungsdomänen beinhalten. Es muss modular sein, um einen überschaubaren Weg zu schaffen, um jede Komponente mit minimaler Unterbrechung des Gesamtsystems zu entwickeln. Die von diesem Papier vorgeschlagene Architektur basiert daher auf einem Dienstleistungsrahmen. Wir untersuchen Dienste wie Ultra-Latenz-Messaging, Latenzüberwachung, Multicast, Computing, Speicherung, Daten - und Anwendungsvirtualisierung, Trading-Resiliency, Handelsmobilität und Thin Client. Die Lösung für die komplexen Anforderungen der Handelsplattform der nächsten Generation muss mit einer ganzheitlichen Denkweise aufgebaut werden, die die Grenzen traditioneller Silos wie Business und Technologie oder Anwendungen und Vernetzung überschreitet. Ziel dieses Dokuments ist es, Leitlinien für den Aufbau einer Handelsplattform mit extrem niedriger Latenzzeit zur Verfügung zu stellen, während der Rohdurchsatz und die Nachrichtenrate sowohl für Marktdaten als auch für FIX-Handelsaufträge optimiert werden. Um dies zu erreichen, schlagen wir die folgenden Latenzreduktionstechnologien vor: High-Speed InterconnectInfiniBand oder 10 Gbit / s-Konnektivität für das Handels-Cluster Hochgeschwindigkeits-Messaging-Bus Anwendungsbeschleunigung über RDMA ohne Applikations-Recoder Echtzeit-Latenzüberwachung und Re-Richtung von Trading Traffic auf den Pfad mit minimaler Latenz Branchentrends und Herausforderungen Trading-Architekturen der nächsten Generation müssen auf erhöhte Anforderungen an Geschwindigkeit, Volumen und Effizienz reagieren. Zum Beispiel wird das Volumen der Optionen Marktdaten voraussichtlich verdoppeln, nachdem die Einführung von Optionen Penny-Handel im Jahr 2007. Es gibt auch regulatorische Anforderungen für die beste Ausführung, die Handhabung Preisaktualisierungen mit Raten, die 1M msg / sec Ansatz. Für den Austausch. Sie benötigen auch Sichtbarkeit in die Frische der Daten und Beweis, dass der Client die bestmögliche Ausführung erhalten hat. Kurzfristig sind Geschwindigkeit von Handel und Innovation die wichtigsten Unterscheidungsmerkmale. Eine zunehmende Anzahl von Trades werden durch algorithmische Handelsanwendungen behandelt, die so nah wie möglich an den Handelsausführungsort gebracht werden. Eine Herausforderung mit diesen quotblack-boxquot Handelsmotoren ist, dass sie die Volumenzunahme erhöhen, indem sie Aufträge nur annullieren und sie zurücksenden. Die Ursache für dieses Verhalten ist mangelnde Transparenz in die Veranstaltungsort bietet die beste Ausführung. Der menschliche Händler ist jetzt ein quotfinancial Ingenieur, ein quotquantquot (quantitativer Analytiker) mit Programmierungfähigkeiten, die handelnmodelle on the fly einstellen können. Unternehmen entwickeln neue Finanzinstrumente wie Wetterderivate oder Cross-Asset-Klassenhandel und müssen die neuen Applikationen schnell und skalierbar einsetzen. Langfristig sollte die Konkurrenzdifferenzierung nicht nur aus der Analyse, sondern auch aus der Analyse resultieren. Die Star-Trader von morgen übernehmen das Risiko, erreichen echte Kundeneinblicke und konsequent den Markt (Quelle IBM: www-935.ibm/services/us/imc/pdf/ge510-6270-trader. pdf). Die Business-Resilienz ist seit dem 11. September 2001 ein wichtiges Anliegen von Handelsunternehmen. Lösungen in diesem Bereich reichen von redundanten Rechenzentren, die sich in verschiedenen Regionen befinden und an mehrere Handelsplätze angeschlossen sind, an virtuelle Händlerlösungen, die Power Traders die meisten Funktionalitäten eines Handelsraums anbieten An einem entfernten Ort. Die Finanzdienstleistungsbranche zählt zu den anspruchsvollsten IT-Anforderungen. Die Branche erlebt einen architektonischen Wandel hin zu Services-Oriented Architecture (SOA), Web Services und Virtualisierung von IT-Ressourcen. SOA nutzt die Erhöhung der Netzwerkgeschwindigkeit, um eine dynamische Bindung und Virtualisierung von Softwarekomponenten zu ermöglichen. Dies ermöglicht die Erstellung neuer Anwendungen, ohne die Investitionen in bestehende Systeme und Infrastrukturen zu verlieren. Das Konzept hat das Potenzial, den Integrationsprozess zu revolutionieren, was eine deutliche Reduktion der Komplexität und Kosten einer solchen Integration ermöglicht (gigaspaces / download / MerrilLynchGigaSpacesWP. pdf). Ein weiterer Trend ist die Konsolidierung von Servern in Rechenzentrums-Serverfarmen, während Händler-Desks nur KVM-Erweiterungen und ultradünne Clients (z. B. SunRay - und HP-Blade-Lösungen) haben. Hochgeschwindigkeits-Metro Area Networks ermöglichen es, Marktdaten zwischen verschiedenen Standorten zu multicastieren und so die Virtualisierung des Handelsraums zu ermöglichen. High-Level-Architektur Abbildung 1 zeigt die Architektur einer Handelsumgebung auf hohem Niveau. Die Ticker-Anlage und die algorithmischen Trading Engines befinden sich im Hochleistungs-Trading-Cluster im Rechenzentrum der Firma oder an der Börse. Die menschlichen Händler befinden sich im Bereich der Endbenutzeranwendungen. Funktionell gibt es zwei Anwendungskomponenten im Enterprise-Trading-Umfeld, Verleger und Abonnenten. Der Messaging-Bus stellt den Kommunikationsweg zwischen Publishern und Abonnenten zur Verfügung. Es gibt zwei Arten von Traffic, die für ein Handelsumfeld spezifisch sind: Market DataCarries-Preisinformationen für Finanzinstrumente, Nachrichten und andere wertschöpfende Informationen wie Analytics. Es ist unidirektional und sehr Latenz empfindlich, in der Regel über UDP Multicast geliefert. Es wird in Updates / Sekunde gemessen. Und in Mbps. Marktdatenströme von einem oder mehreren externen Feeds, die von Marktdatenanbietern wie Börsen, Datenaggregatoren und ECNs kommen. Jeder Anbieter hat sein eigenes Marktdatenformat. Die Daten werden von Feed-Handlern, spezialisierten Anwendungen, die die Daten normalisieren und reinigen, empfangen und dann an Datenkonsumenten, wie z. B. Preismodule, algorithmische Handelsanwendungen oder menschliche Händler, gesendet. Sell-Side-Unternehmen senden auch die Marktdaten an ihre Kunden, Buy-Side-Firmen wie Investmentfonds, Hedgefonds und andere Vermögensverwalter. Einige Buy-Side-Unternehmen können entscheiden, Direkt-Feeds von den Austausch, Reduzierung der Latenz zu erhalten. Abbildung 1 Trading-Architektur für eine Buy-Side / Sell Side Firm Es gibt keine Industrie-Standard für Markt-Daten-Formate. Jeder Austausch hat ihr eigenes Format. Finanzdienstleister wie Reuters und Bloomberg aggregieren verschiedene Quellen von Marktdaten, normalisieren sie und fügen Neuigkeiten oder Analysen hinzu. Beispiele für konsolidierte Feeds sind RDF (Reuters Data Feed), RWF (Reuters Wire Format) und Bloomberg Professional Services Data. Um Marktdaten mit geringerer Latenz zu liefern, haben beide Anbieter Echtzeit-Marktdaten-Feeds veröffentlicht, die weniger verarbeitet und weniger analytisch sind: Bloomberg B-PipeWith B-Pipe, Bloomberg dekoppelt ihre Marktdaten-Feeds von ihrer Vertriebsplattform aus Ist nicht erforderlich für get B-Pipe. Wombat und Reuters Feed-Handler haben angekündigt, Unterstützung für B-Pipe. Ein Unternehmen kann entscheiden, Feeds direkt von einem Austausch zu empfangen, um die Latenz zu reduzieren. Die Verstärkung der Übertragungsgeschwindigkeit kann zwischen 150 Millisekunden bis 500 Millisekunden liegen. Diese Feeds sind komplexer und teurer und die Firma muss ihre eigene Ticker-Anlage aufbauen und pflegen (financetech / featured / showArticle. jhtmlarticleID60404306). Trading OrdersThis Art von Traffic trägt die tatsächlichen Trades. Es ist bidirektional und sehr latenzempfindlich. Es wird in Nachrichten / Sek. Gemessen. Und Mbps. Die Aufträge stammen von einer Kaufseite oder Verkaufsseite Firma und werden an Handelsplätze wie eine Börse oder ECN zur Ausführung gesendet. Das häufigste Format für den Auftragsverkehr ist FIX (Financial Information eXchangefixprotocol. org/). Die Applikationen, die FIX-Meldungen verarbeiten, heißen FIX-Engines und operieren mit Order Management Systemen (OMS). Eine Optimierung für FIX heißt FAST (Fix Adapted for Streaming), das ein Komprimierungsschema verwendet, um die Nachrichtenlänge zu reduzieren und die Latenz zu reduzieren. FAST ist mehr auf die Bereitstellung von Marktdaten ausgerichtet und hat das Potenzial, ein Standard zu werden. FAST kann auch als Komprimierungsschema für proprietäre Marktdatenformate verwendet werden. Um die Latenz zu reduzieren, können sich Unternehmen entscheiden, Direct Market Access (DMA) zu errichten. DMA ist der automatisierte Prozess, um einen Wertpapierauftrag direkt an einen Ausführungsort zu leiten und so die Intervention durch einen Dritten zu vermeiden (towergroup / research / content / glossary. jsppage1ampglossaryId383). DMA erfordert eine direkte Verbindung zum Ausführungsort. Der Messaging-Bus ist Middleware-Software von Anbietern wie Tibco, 29West, Reuters RMDS oder einer Open-Source-Plattform wie AMQP. Der Messaging-Bus verwendet einen zuverlässigen Mechanismus, um Nachrichten zu übermitteln. Der Transport kann über TCP / IP (TibcoEMS, 29West, RMDS und AMQP) oder UDP / Multicast (TibcoRV, 29West und RMDS) erfolgen. Ein wichtiges Konzept in der Nachrichtenverteilung ist der quottopische Stream, der eine Teilmenge von Marktdaten ist, die durch Kriterien wie Tickersymbol, Industrie oder einen bestimmten Korb von Finanzinstrumenten definiert sind. Abonnenten werden Themengruppen zugeordnet, die einem oder mehreren Unterthemen zugeordnet sind, um nur die relevanten Informationen zu erhalten. In der Vergangenheit erhielten alle Händler alle Marktdaten. Bei den derzeitigen Verkehrsmengen wäre dies suboptimal. Das Netzwerk spielt eine wichtige Rolle im Handelsumfeld. Die Marktdaten werden zum Handelsplatz getragen, wo sich die menschlichen Händler über ein Hochgeschwindigkeitsnetzwerk des Campus oder Metro Area befinden. Hohe Verfügbarkeit und niedrige Latenzzeiten sowie hoher Durchsatz sind die wichtigsten Kennzahlen. Die leistungsstarke Handelsumgebung verfügt über die meisten Komponenten in der Data Center-Serverfarm. Um die Latenz zu minimieren, müssen sich die algorithmischen Trading-Engines in der Nähe von Feed-Handlern, FIX-Engines und Order-Management-Systemen befinden. Ein alternatives Bereitstellungsmodell weist die algorithmischen Handelssysteme auf, die sich an einer Vermittlungsstelle oder einem Dienstanbieter mit schneller Konnektivität zu mehreren Vermittlungsstellen befinden. Bereitstellungsmodelle Es gibt zwei Bereitstellungsmodelle für eine leistungsfähige Handelsplattform. Die Unternehmen haben die Wahl zwischen einem Rechenzentrum der Handelsgesellschaft (Abbildung 2) Dies ist das traditionelle Modell, in dem eine vollwertige Handelsplattform von der Firma entwickelt und betrieben wird, die über Kommunikationsverbindungen zu allen Handelsplätzen verfügt. Latenz variiert mit der Geschwindigkeit der Links und die Anzahl der Hops zwischen der Firma und den Veranstaltungsorten. Abbildung 2 Traditionelles Bereitstellungsmodell Koordination am Handelsplatz (Börsen, Finanzdienstleister (FSP)) (Abbildung 3) Das Handelsunternehmen entfaltet seine automatisierte Handelsplattform so nah wie möglich an den Ausführungsorten, um die Latenz zu minimieren. Abbildung 3 Verteilungsmodell-Services-orientierte Trading-Architektur Wir schlagen ein dienstleistungsorientiertes Framework für den Aufbau der Handelsarchitektur der nächsten Generation vor. Dieser Ansatz bietet einen konzeptionellen Rahmen und einen Implementierungspfad, der auf Modularisierung und Minimierung von Abhängigkeiten beruht. Dieses Framework stellt Unternehmen eine Methodologie zur Verfügung, um ihren gegenwärtigen Zustand in Bezug auf Dienstleistungen zu bewerten Priorisierung der Dienste basierend auf ihrem Wert für das Unternehmen Entwickeln Sie die Handelsplattform in den gewünschten Zustand mit einem modularen Ansatz Die Hochleistungs-Handelsarchitektur setzt auf die folgenden Dienstleistungen, wie Definiert durch das in Abbildung 4 dargestellte Service-Architektur-Framework. Abbildung 4 Service Architektur Framework für High Performance Trading Ultra-Low Latency Messaging Service Dieser Service wird von dem Messaging-Bus bereitgestellt, der ein Softwaresystem ist, Viele Anwendungen. Das System besteht aus: Ein Satz von vordefinierten Nachrichtenschemata Ein Satz von gemeinsamen Befehlsnachrichten Eine gemeinsame Anwendungsinfrastruktur zum Senden der Nachrichten an Empfänger. Die gemeinsame Infrastruktur kann auf einem Message-Broker oder einem Publish / Subscribe-Modell basieren. Die wichtigsten Anforderungen für den Messaging-Bus der nächsten Generation (Quelle 29West): Niedrigstmögliche Latenzzeit (zB weniger als 100 Mikrosekunden) Stabilität unter hoher Last (zB mehr als 1,4 Millionen msg / Sek.) Kontrolle und Flexibilität (Ratensteuerung und konfigurierbare Transporte) ) Es gibt Anstrengungen in der Branche, den Messaging-Bus zu standardisieren. Advanced Message Queuing Protocol (AMQP) ist ein Beispiel für einen offenen Standard, der von J. P. Morgan Chase unterstützt wird und von einer Gruppe von Anbietern wie Cisco, Envoy Technologies, Red Hat, TWIST Process Innovations, Iona, 29West und iMatix unterstützt wird. Zwei der Hauptziele sind, einen einfacheren Weg zur Interoperabilität für Anwendungen bereitzustellen, die auf verschiedenen Plattformen und Modularität geschrieben sind, so dass die Middleware einfach entwickelt werden kann. Ganz allgemein ist ein AMQP-Server analog zu einem E-Mail-Server, wobei jede Vermittlungsstelle als Nachrichtenübertragungsagent und jede Nachrichtenwarteschlange als Mailbox fungiert. Die Bindungen definieren die Routingtabellen in jedem Transferagent. Publisher senden Nachrichten an einzelne Übertragungsagenten, die dann die Nachrichten in Postfächer weiterleiten. Verbraucher nehmen Nachrichten aus Postfächern, die ein leistungsfähiges und flexibles Modell erstellen, das einfach ist (Quelle: amqp. org/tikiwiki/tiki-index. phppageOpenApproachWhyAMQP). Latency Monitoring Service Die wichtigsten Voraussetzungen für diesen Service sind: Granularität der Messungen in Millisekunden Echtzeit-Sichtbarkeit ohne Hinzufügen von Latenzzeiten zum Traffic Traffic Fähigkeit, die Latenz der Applikationsbearbeitung von der Netzwerk-Transit-Latenz zu unterscheiden Fähigkeit, hohe Meldungsraten zu behandeln Bieten Sie eine programmgesteuerte Schnittstelle für Um Latenzdaten zu empfangen, so dass sich algorithmische Trading Engines an sich ändernde Bedingungen anpassen können. Korrelieren von Netzwerkereignissen mit Anwendungsereignissen für Fehlerbehandlungszwecke Latenzzeit kann als das Zeitintervall definiert werden, zwischen dem eine Trade Order gesendet wird, und wenn dieselbe Reihenfolge quittiert und gehandelt wird Von der empfangenden Partei. Die Lösung der Latenzproblematik ist ein komplexes Problem, das einen ganzheitlichen Ansatz erfordert, der alle Latenzquellen identifiziert und verschiedene Technologien auf verschiedenen Ebenen des Systems anwendet. Fig. 5 zeigt die Vielfalt der Komponenten, die Latenzzeiten an jeder Schicht des OSI-Stapels einbringen können. Es bildet auch jede Quelle der Latenz mit einer möglichen Lösung und einer Überwachungslösung ab. Dieser mehrschichtige Ansatz bietet Unternehmen eine strukturierte Möglichkeit, das Latenzproblem anzugreifen, wobei jede Komponente als Dienstleistung betrachtet und konsequent über das Unternehmen hinweg behandelt werden kann. Eine genaue Messung des dynamischen Zustands dieses Zeitintervalls über alternative Routen und Ziele kann bei taktischen Handelsentscheidungen eine große Hilfe sein. Die Fähigkeit, die genaue Lage der Verzögerungen zu identifizieren, sei es im Kundennetznetz, auf dem zentralen Verarbeitungsknoten oder auf der Transaktionsanwendungsebene, bestimmt entscheidend die Fähigkeit von Dienstanbietern, ihre vertraglichen Vereinbarungen auf Handelsniveau (SLAs) zu erfüllen. Für Buy-Side - und Sell-Side-Formulare sowie für Marktdaten-Syndikatoren erfolgt die schnelle Identifikation und Beseitigung von Engpässen direkt in verbesserte Handels - und Ertragsmöglichkeiten. Abbildung 5 Latenzmanagement-Architektur Cisco Low-Latency-Monitoring-Tools Traditionelle Netzwerk-Monitoring-Tools arbeiten mit Minuten oder Sekunden Granularität. Handelsplattformen der nächsten Generation, insbesondere solche, die den algorithmischen Handel unterstützen, erfordern Latenzen von weniger als 5 ms und extrem niedrige Paketverluste. Auf einem Gigabit-LAN kann ein 100-ms-Microburst verursachen, dass 10.000 Transaktionen verloren gehen oder übermäßig verzögert werden. Cisco bietet seinen Kunden eine Auswahl an Tools, um die Latenzzeiten in einer Handelsumgebung zu messen: Bandbreiten-Qualitätsmanager (BQM) (OEM von Corvil) Cisco AON-basierte Finanzdienstleistungs-Latenzüberwachungslösung (FSMS) Bandbreiten-Qualitätsmanager Bandwidth Quality Manager (BQM) 4.0 ist Ein Netzwerk-Performance-Management-Produkt der nächsten Generation, das es Kunden ermöglicht, ihr Netzwerk auf kontrollierte Latenz - und Verlustleistung zu überwachen und bereitzustellen. Während BQM nicht ausschließlich auf Handelsnetze ausgerichtet ist, ist die Mikrosekundenvisibilität in Kombination mit intelligenten Funktionen zur Bandbreitenoptimierung ideal für diese anspruchsvollen Umgebungen. Cisco BQM 4.0 implementiert eine breite Palette von patentierten und zum Patent angemeldeten Verkehrs - und Netzwerkanalysetechnologien, die dem Anwender eine noch nie dagewesene Sichtbarkeit und ein Verständnis der Optimierung des Netzwerks für maximale Anwendungsleistung bieten. Cisco BQM wird nun auf der Produktfamilie der Cisco Application Deployment Engine (ADE) unterstützt. Die Cisco ADE-Produktfamilie ist die Plattform für Cisco Network Management-Anwendungen. BQM-Vorteile Die Cisco BQM-Mikrosichtbarkeit ist die Fähigkeit, Latenz, Jitter und Verluste, die Verkehrsereignisse verursachen, zu detektieren, zu messen und zu analysieren, bis hin zu Mikrosekunden-Ebenen der Granularität pro Paketauflösung. Dadurch kann Cisco BQM die Auswirkungen von Verkehrsereignissen auf Netzwerklatenz, Jitter und Verlust erkennen und bestimmen. Kritisch für Handelsumgebungen ist, dass BQM Latenz-, Verlust - und Jitter-Messungen einseitig für TCP - und UDP - (Multicast-) Datenverkehr unterstützen kann. Das bedeutet, dass sie nahtlos sowohl für Trading - als auch für Marktdaten-Feeds berichtet. BQM erlaubt es dem Benutzer, einen umfassenden Satz von Schwellenwerten (gegen Microburst-Aktivität, Latenz, Verlust, Jitter, Auslastung usw.) auf allen Schnittstellen festzulegen. BQM then operates a background rolling packet capture. Whenever a threshold violation or other potential performance degradation event occurs, it triggers Cisco BQM to store the packet capture to disk for later analysis. This allows the user to examine in full detail both the application traffic that was affected by performance degradation (quotthe victimsquot) and the traffic that caused the performance degradation (quotthe culpritsquot). This can significantly reduce the time spent diagnosing and resolving network performance issues. BQM is also able to provide detailed bandwidth and quality of service (QoS) policy provisioning recommendations, which the user can directly apply to achieve desired network performance. BQM Measurements Illustrated To understand the difference between some of the more conventional measurement techniques and the visibility provided by BQM, we can look at some comparison graphs. In the first set of graphs (Figure 6 and Figure 7 ), we see the difference between the latency measured by BQMs Passive Network Quality Monitor (PNQM) and the latency measured by injecting ping packets every 1 second into the traffic stream. In Figure 6. we see the latency reported by 1-second ICMP ping packets for real network traffic (it is divided by 2 to give an estimate for the one-way delay). It shows the delay comfortably below about 5ms for almost all of the time. Figure 6 Latency Reported by 1-Second ICMP Ping Packets for Real Network Traffic In Figure 7. we see the latency reported by PNQM for the same traffic at the same time. Here we see that by measuring the one-way latency of the actual application packets, we get a radically different picture. Here the latency is seen to be hovering around 20 ms, with occasional bursts far higher. The explanation is that because ping is sending packets only every second, it is completely missing most of the application traffic latency. In fact, ping results typically only indicate round trip propagation delay rather than realistic application latency across the network. Figure 7 Latency Reported by PNQM for Real Network Traffic In the second example (Figure 8 ), we see the difference in reported link load or saturation levels between a 5-minute average view and a 5 ms microburst view (BQM can report on microbursts down to about 10-100 nanosecond accuracy). The green line shows the average utilization at 5-minute averages to be low, maybe up to 5 Mbits/s. The dark blue plot shows the 5ms microburst activity reaching between 75 Mbits/s and 100 Mbits/s, the LAN speed effectively. BQM shows this level of granularity for all applications and it also gives clear provisioning rules to enable the user to control or neutralize these microbursts. Figure 8 Difference in Reported Link Load Between a 5-Minute Average View and a 5 ms Microburst View BQM Deployment in the Trading Network Figure 9 shows a typical BQM deployment in a trading network. Figure 9 Typical BQM Deployment in a Trading Network BQM can then be used to answer these types of questions: Are any of my Gigabit LAN core links saturated for more than X milliseconds Is this causing loss Which links would most benefit from an upgrade to Etherchannel or 10 Gigabit speeds What application traffic is causing the saturation of my 1 Gigabit links Is any of the market data experiencing end-to-end loss How much additional latency does the failover data center experience Is this link sized correctly to deal with microbursts Are my traders getting low latency updates from the market data distribution layer Are they seeing any delays greater than X milliseconds Being able to answer these questions simply and effectively saves time and money in running the trading network. BQM is an essential tool for gaining visibility in market data and trading environments. It provides granular end-to-end latency measurements in complex infrastructures that experience high-volume data movement. Effectively detecting microbursts in sub-millisecond levels and receiving expert analysis on a particular event is invaluable to trading floor architects. Smart bandwidth provisioning recommendations, such as sizing and what-if analysis, provide greater agility to respond to volatile market conditions. As the explosion of algorithmic trading and increasing message rates continues, BQM, combined with its QoS tool, provides the capability of implementing QoS policies that can protect critical trading applications. Cisco Financial Services Latency Monitoring Solution Cisco and Trading Metrics have collaborated on latency monitoring solutions for FIX order flow and market data monitoring. Cisco AON technology is the foundation for a new class of network-embedded products and solutions that help merge intelligent networks with application infrastructure, based on either service-oriented or traditional architectures. Trading Metrics is a leading provider of analytics software for network infrastructure and application latency monitoring purposes (tradingmetrics/ ). The Cisco AON Financial Services Latency Monitoring Solution (FSMS) correlated two kinds of events at the point of observation: Network events correlated directly with coincident application message handling Trade order flow and matching market update events Using time stamps asserted at the point of capture in the network, real-time analysis of these correlated data streams permits precise identification of bottlenecks across the infrastructure while a trade is being executed or market data is being distributed. By monitoring and measuring latency early in the cycle, financial companies can make better decisions about which network serviceand which intermediary, market, or counterpartyto select for routing trade orders. Likewise, this knowledge allows more streamlined access to updated market data (stock quotes, economic news, etc.), which is an important basis for initiating, withdrawing from, or pursuing market opportunities. The components of the solution are: AON hardware in three form factors: AON Network Module for Cisco 2600/2800/3700/3800 routers AON Blade for the Cisco Catalyst 6500 series AON 8340 Appliance Trading Metrics MampA 2.0 software, which provides the monitoring and alerting application, displays latency graphs on a dashboard, and issues alerts when slowdowns occur (tradingmetrics/TMbrochure. pdf ). Figure 10 AON-Based FIX Latency Monitoring Cisco IP SLA Cisco IP SLA is an embedded network management tool in Cisco IOS which allows routers and switches to generate synthetic traffic streams which can be measured for latency, jitter, packet loss, and other criteria (cisco/go/ipsla ). Two key concepts are the source of the generated traffic and the target. Both of these run an IP SLA quotresponder, quot which has the responsibility to timestamp the control traffic before it is sourced and returned by the target (for a round trip measurement). Various traffic types can be sourced within IP SLA and they are aimed at different metrics and target different services and applications. The UDP jitter operation is used to measure one-way and round-trip delay and report variations. As the traffic is time stamped on both sending and target devices using the responder capability, the round trip delay is characterized as the delta between the two timestamps. A new feature was introduced in IOS 12.3(14)T, IP SLA Sub Millisecond Reporting, which allows for timestamps to be displayed with a resolution in microseconds, thus providing a level of granularity not previously available. This new feature has now made IP SLA relevant to campus networks where network latency is typically in the range of 300-800 microseconds and the ability to detect trends and spikes (brief trends) based on microsecond granularity counters is a requirement for customers engaged in time-sensitive electronic trading environments. As a result, IP SLA is now being considered by significant numbers of financial organizations as they are all faced with requirements to: Report baseline latency to their users Trend baseline latency over time Respond quickly to traffic bursts that cause changes in the reported latency Sub-millisecond reporting is necessary for these customers, since many campus and backbones are currently delivering under a second of latency across several switch hops. Electronic trading environments have generally worked to eliminate or minimize all areas of device and network latency to deliver rapid order fulfillment to the business. Reporting that network response times are quotjust under one millisecondquot is no longer sufficient the granularity of latency measurements reported across a network segment or backbone need to be closer to 300-800 micro-seconds with a degree of resolution of 100 igrave seconds. IP SLA recently added support for IP multicast test streams, which can measure market data latency. A typical network topology is shown in Figure 11 with the IP SLA shadow routers, sources, and responders. Figure 11 IP SLA Deployment Computing Services Computing services cover a wide range of technologies with the goal of eliminating memory and CPU bottlenecks created by the processing of network packets. Trading applications consume high volumes of market data and the servers have to dedicate resources to processing network traffic instead of application processing. Transport processingAt high speeds, network packet processing can consume a significant amount of server CPU cycles and memory. An established rule of thumb states that 1Gbps of network bandwidth requires 1 GHz of processor capacity (source Intel white paper on I/O acceleration intel/technology/ioacceleration/306517.pdf ). Intermediate buffer copyingIn a conventional network stack implementation, data needs to be copied by the CPU between network buffers and application buffers. This overhead is worsened by the fact that memory speeds have not kept up with increases in CPU speeds. For example, processors like the Intel Xeon are approaching 4 GHz, while RAM chips hover around 400MHz (for DDR 3200 memory) (source Intel intel/technology/ioacceleration/306517.pdf ). Context switchingEvery time an individual packet needs to be processed, the CPU performs a context switch from application context to network traffic context. This overhead could be reduced if the switch would occur only when the whole application buffer is complete. Figure 12 Sources of Overhead in Data Center Servers TCP Offload Engine (TOE)Offloads transport processor cycles to the NIC. Moves TCP/IP protocol stack buffer copies from system memory to NIC memory. Remote Direct Memory Access (RDMA)Enables a network adapter to transfer data directly from application to application without involving the operating system. Eliminates intermediate and application buffer copies (memory bandwidth consumption). Kernel bypass Direct user-level access to hardware. Dramatically reduces application context switches. Figure 13 RDMA and Kernel Bypass InfiniBand is a point-to-point (switched fabric) bidirectional serial communication link which implements RDMA, among other features. Cisco offers an InfiniBand switch, the Server Fabric Switch (SFS): cisco/application/pdf/en/us/guest/netsol/ns500/c643/cdccont0900aecd804c35cb. pdf. Figure 14 Typical SFS Deployment Trading applications benefit from the reduction in latency and latency variability, as proved by a test performed with the Cisco SFS and Wombat Feed Handlers by Stac Research: Application Virtualization Service De-coupling the application from the underlying OS and server hardware enables them to run as network services. One application can be run in parallel on multiple servers, or multiple applications can be run on the same server, as the best resource allocation dictates. This decoupling enables better load balancing and disaster recovery for business continuance strategies. The process of re-allocating computing resources to an application is dynamic. Using an application virtualization system like Data Synapses GridServer, applications can migrate, using pre-configured policies, to under-utilized servers in a supply-matches-demand process (networkworld/supp/2005/ndc1/022105virtual. htmlpage2 ). There are many business advantages for financial firms who adopt application virtualization: Faster time to market for new products and services Faster integration of firms following merger and acquisition activity Increased application availability Better workload distribution, which creates more quothead roomquot for processing spikes in trading volume Operational efficiency and control Reduction in IT complexity Currently, application virtualization is not used in the trading front-office. One use-case is risk modeling, like Monte Carlo simulations. As the technology evolves, it is conceivable that some the trading platforms will adopt it. Data Virtualization Service To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity. With solutions from data virtualization software vendors such as Gemstone or Tangosol (now Oracle), financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching. The net result is that all users have instant access to these data resources across a distributed network (gridtoday/03/0210/101061.html ). This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing (XTP) (gartner/DisplayDocumentrefgsearchampid500947 ). Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation. One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Todays data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limitsthey have been developed without the WAN in mind. Figure 15 GemStone GemFire Distributed Caching Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster. Multicast Service Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth. IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two serversone primary and one backup for redundancy. There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerages network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center. The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization. Figure 16 Market Data Distribution Players The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco. A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders. Figure 17 Market Data Architecture Design Issues Number of Groups/Channels to Use Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message. In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returnsthere is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets. Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically: This approach allows for straight forward network/application management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user. In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient. Intermittent Sources A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created. PIM-Bidir or PIM-SSM The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications. Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path. Intermittent sources are not an issue with PIM-Bidir and PIM-SSM. Null Packets In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems. Periodic Keepalives or Heartbeats An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires. S, G Expiry Timer Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed. RTCP Feedback A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided. Fast Producers and Slow Consumers Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle. The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application. Tibco Heartbeats TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions. Multicast Forwarding Options PIM Sparse Mode The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage. There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections. The main components of the PIM-SM implementation are: PIM Sparse Mode v2 Shared Tree (spt-threshold infinity) A design option in the brokerage or in the exchange.
No comments:
Post a Comment