Monday 9 April 2018

Arquitetura do sistema de gerenciamento de pedidos comerciais


Arquitetura do sistema de comércio algorítmico.


Anteriormente, neste blog, escrevi sobre a arquitetura conceitual de um sistema de negociação algorítmico inteligente, bem como os requisitos funcionais e não funcionais de um sistema de negociação algorítmica de produção. Desde então, criei uma arquitetura de sistema que, acredito, poderia satisfazer esses requisitos arquitetônicos. Nesta publicação, descreverei a arquitetura seguindo as diretrizes dos padrões ISO / IEC / IEEE 42018 e padrão de descrição da arquitetura de engenharia de software. De acordo com este padrão, uma descrição de arquitetura deve:


Contém várias visualizações arquitetônicas padronizadas (por exemplo, em UML) e Mantenha a rastreabilidade entre decisões de design e requisitos arquitetônicos.


Definição de arquitetura de software.


Ainda não há consenso quanto ao que é uma arquitetura do sistema. No contexto deste artigo, é definido como a infra-estrutura dentro da qual os componentes do aplicativo que satisfazem os requisitos funcionais podem ser especificados, implantados e executados. Os requisitos funcionais são as funções esperadas do sistema e seus componentes. Os requisitos não funcionais são medidas através das quais a qualidade do sistema pode ser medida.


Um sistema que satisfaça plenamente seus requisitos funcionais ainda pode não atender às expectativas se os requisitos não funcionais forem deixados insatisfeitos. Para ilustrar este conceito, considere o seguinte cenário: um sistema de negociação algorítmico que você acabou de comprar / construir faz excelentes decisões de negociação, mas é completamente inoperacional com os sistemas de gestão e contabilidade de risco das organizações. Esse sistema atenderia às suas expectativas?


Arquitetura conceitual.


Uma visão conceitual descreve conceitos e mecanismos de alto nível que existem no sistema no mais alto nível de granularidade. Nesse nível, o sistema de negociação algorítmica segue uma arquitetura orientada a eventos (EDA) dividida em quatro camadas e dois aspectos arquitetônicos. Para cada camada e referência de aspecto arquiteturas e padrões são usados. Padrões arquitetônicos são estruturas comprovadas e genéricas para alcançar requisitos específicos. Os aspectos arquitetônicos são preocupações transversais que abrangem múltiplos componentes.


Arquitetura orientada a eventos - uma arquitetura que produz, detecta, consome e reage a eventos. Os eventos incluem movimentos do mercado em tempo real, eventos ou tendências complexas e eventos comerciais, e. enviando um pedido.


Este diagrama ilustra a arquitetura conceitual do sistema de negociação algorítmica.


Arquiteturas de referência.


Para usar uma analogia, uma arquitetura de referência é semelhante aos planos para uma parede de suporte de carga. Esta impressão azul pode ser reutilizada para projetos de construção múltipla independentemente do edifício que está sendo construído, pois satisfaz um conjunto de requisitos comuns. Da mesma forma, uma arquitetura de referência define um modelo contendo estruturas genéricas e mecanismos que podem ser usados ​​para construir uma arquitetura de software concreta que satisfaça requisitos específicos. A arquitetura para o sistema de negociação algorítmica usa uma arquitetura baseada em espaço (SBA) e um controlador de exibição de modelo (MVC) como referências. São também utilizadas boas práticas, como o armazenamento de dados operacionais (ODS), o padrão de transformação e carregamento de extratos (ETL) e um data warehouse (DW).


Controle de exibição de modelo - um padrão que separa a representação de informações da interação do usuário com ela. Arquitetura baseada em espaço - especifica uma infra-estrutura onde as unidades de processamento acopladas vagamente interagem entre si através de uma memória associativa compartilhada chamada espaço (mostrado abaixo).


Visão estrutural.


A visão estrutural de uma arquitetura mostra os componentes e subcomponentes do sistema de negociação algorítmica. Ele também mostra como esses componentes são implantados em infra-estrutura física. Os diagramas UML utilizados nesta visão incluem diagramas de componentes e diagramas de implantação. Abaixo está a galeria dos diagramas de implantação do sistema de negociação algorítmico geral e as unidades de processamento na arquitetura de referência SBA, bem como diagramas de componentes relacionados para cada uma das camadas.


Diagrama de componentes de processamento de comerciantes / eventos automatizados Fonte de dados e diagrama de componente de camada de pré-processamento Diagrama de componente de interface de usuário baseado em MVC.


Táticas arquitetônicas.


De acordo com o instituto de engenharia de software, uma tática arquitetônica é um meio de satisfazer um requisito de qualidade, manipulando algum aspecto de um modelo de atributo de qualidade através de decisões de design arquitetônico. Um exemplo simples usado na arquitetura do sistema de negociação algorítmica é 'manipular' um armazenamento de dados operacional (ODS) com um componente de consulta contínua. Este componente analisaria continuamente o ODS para identificar e extrair eventos complexos. As seguintes táticas são usadas na arquitetura:


O padrão do disruptor nas filas de eventos e pedidos Memória compartilhada para as filas de eventos e pedidos Linguagem de consulta contínua (CQL) na filtragem de dados ODS com o padrão de design do filtro em dados recebidos Algoritmos de evitação de congestionamentos em todas as conexões de entrada e saída Gerenciamento de filas ativas (AQM ) e notificação de congestionamento explícito Recursos de computação de mercadorias com capacidade de atualização (escalável) Redundância ativa para todos os pontos de falha únicos Indicação e estruturas de persistência otimizadas no ODS Programe backup de dados regulares e scripts de limpeza para ODS Histórico de transações em todos os bancos de dados Súmrios para todos Ordens para detectar falhas Anotar eventos com timestamps para ignorar eventos "obsoletos". Regras de validação de pedidos, por exemplo, quantidades de comércio máximo Componentes de comerciante automatizado usam um banco de dados em memória para análise Autenticação em dois estágios para interfaces de usuário conectando-se à ATs Criptografia em interfaces de usuário e conexões ao padrão de design ATs Observer para que o MVC gerencie visualizações.


A lista acima é apenas algumas decisões de design que identifiquei durante o projeto da arquitetura. Não é uma lista completa de táticas. À medida que o sistema está sendo desenvolvido, táticas adicionais devem ser empregadas em múltiplos níveis de granularidade para atender aos requisitos funcionais e não funcionais. Abaixo estão três diagramas que descrevem o padrão de design do disruptor, o padrão de design do filtro e o componente de consulta contínua.


Visão comportamental.


Essa visão de uma arquitetura mostra como os componentes e camadas devem interagir um com o outro. Isso é útil ao criar cenários para testar projetos de arquitetura e para entender o sistema de ponta a ponta. Essa visão consiste em diagramas de seqüência e diagramas de atividades. Diagramas de atividades que mostram o processo interno do sistema de negociação algorítmica e como os comerciantes devem interagir com o sistema de negociação algorítmica são mostrados abaixo.


Tecnologias e estruturas.


O passo final na concepção de uma arquitetura de software é identificar potenciais tecnologias e estruturas que poderiam ser utilizadas para realizar a arquitetura. Como princípio geral, é melhor aproveitar as tecnologias existentes, desde que satisfaçam adequadamente os requisitos funcionais e não funcionais. Uma estrutura é uma arquitetura de referência realizada, e. JBoss é uma estrutura que realiza a arquitetura de referência JEE. As seguintes tecnologias e frameworks são interessantes e devem ser consideradas na implementação de um sistema de negociação algorítmico:


CUDA - NVidia tem uma série de produtos que suportam modelagem de finanças computacionais de alto desempenho. Pode-se conseguir até 50x melhorias no desempenho ao executar simulações Monte Carlo na GPU em vez da CPU. Rio Apache - Rio é um kit de ferramentas usado para desenvolver sistemas distribuídos. Ele foi usado como uma estrutura para a construção de aplicativos com base no padrão SBA Apache Hadoop - no caso de registro invasivo ser um requisito, então o uso do Hadoop oferece uma solução interessante para o problema dos grandes dados. O Hadoop pode ser implantado em um ambiente em cluster que suporta tecnologias CUDA. AlgoTrader - uma plataforma de negociação algorítmica de código aberto. O AlgoTrader poderia ser implantado no lugar dos componentes do comerciante automatizado. FIX Engine - um aplicativo autônomo que aceita os protocolos do Financial Information Exchange (FIX), incluindo FIX, FAST e FIXatdl.


Embora não seja uma tecnologia ou uma estrutura, os componentes devem ser criados com uma interface de programação de aplicativos (API) para melhorar a interoperabilidade do sistema e seus componentes.


Conclusão.


A arquitetura proposta foi projetada para satisfazer requisitos muito genéricos identificados para sistemas de negociação algorítmica. Geralmente, os sistemas de negociação algorítmica são complicados por três fatores que variam de acordo com cada implementação:


Dependências em sistemas empresariais e de intercâmbio externos Requisitos não funcionais desafiadores e restrições arquitetônicas em evolução.


Por conseguinte, a arquitetura de software proposta deve ser adaptada caso a caso para satisfazer requisitos organizacionais e regulatórios específicos, bem como para superar restrições regionais. A arquitetura do sistema de negociação algorítmica deve ser vista como apenas um ponto de referência para indivíduos e organizações que desejam projetar seus próprios sistemas de negociação algorítmica.


Para uma cópia completa e fontes usadas, baixe uma cópia do meu relatório. Obrigado.


História anterior.


Requisitos do sistema de negociação algorítmica.


Próxima História.


Otimização de portfólio usando otimização de enxertia de partículas.


Excelente visão geral, e um bom começo na arquitetura. Sua conclusão foi adequada, e apontou por que os sistemas de software de negociação algorítmica requerem back-testing e ajustes constantes para mantê-los relevantes. Boa leitura!


1 de fevereiro de 2018.


Quando os dados de commodities ou renda fixa são imprecisos ou lentos em receber, os modelos podem ter dificuldade em calcular especialmente no espaço de um evento Black Swann.


Muito obrigado por este artigo. Estive pensando em AI em finanças desde o final da década de 90 e, finalmente, as tecnologias e as APIs estão comumente disponíveis. Seu artigo e blog são uma ótima ajuda para fazer esses primeiros passos para tornar realidade os sonhos dos anos anteriores. Muito obrigado e boa sorte em seus novos empreendimentos!


Mantenha-me atualizado no seu progresso. Estou muito interessado. Obrigado.


Envie um comentário.


Cancelar resposta.


Siga a Turing Finance.


Turing Finance Mailing List.


Amigos da Turing Finance.


Quantocracy é o melhor agregador de blog de finanças quantitativas com links para novas análises postadas todos os dias.


NMRQL é o fundo hedge quantitativo de que sou parte. Usamos a aprendizagem de máquinas para tentar vencer o mercado.


Arquitetura do sistema de gerenciamento de pedidos comerciais.


Eles também permitem que as empresas mudem, cancelem e atuem pedidos. O diagrama de arquitetura lógica ilustra o seguinte fluxo de pedidos: alguns sistemas de gerenciamento de pedidos vão um passo adiante em seu processo de alocação comercial, fornecendo atribuição de taxlot. Os requisitos não funcionais são medidas através das quais a qualidade do sistema pode ser medida. Relatórios [editar] Um resultado de uma OMS que se comunicou com sucesso aos sistemas de um gestor de ativos é a facilidade de produzir relatórios precisos e oportunos.


Vídeo por tema:


Calypso - Trade & Position Routing.


5 Replies to & ldquo; Arquitetura de sistema de gerenciamento de pedidos comerciais e rdquo;


Os principais corretores de ações oferecem aos investidores o maior valor para os seus.


Você pode encontrar uma grande quantidade de informações em seu corretor no site da FINRA.


Qual é o robô de opção e por que é quase tão bom quanto o robô de opção binária.


Ranking dos principais corretores de ações on-line para investir em ações, opções, fundos e fundos de investimento.


Nerdwallet classifica os melhores corretores de ações on-line para investidores iniciantes.


ARQUITETURA DO SISTEMA DE GESTÃO DE ORDEM COMERCIAL.


MIMOSA | Informações sobre operações e manutenção ...


A MIMOSA é uma associação comercial sem fins lucrativos dedicada ao desenvolvimento e encorajamento da adoção de padrões de informações abertas para Operações e Manutenção em São Paulo.


Futuros & amp; Opções de negociação para gerenciamento de riscos - CME ...


O CME Group é o mercado de derivativos líder e mais diversificado do mundo, oferecendo a mais ampla gama de futuros e opções de produtos para gerenciamento de riscos.


ScriptPro - Automação de farmácia | Sistema de Gerenciamento de Farmácia.


O ScriptPro fornece sistemas inovadores, perfeitamente integrados e com robotização para otimizar os serviços de farmácia de varejo e ambulatório.


Hedging. Gerenciamento de dinheiro | Gerenciamento de dinheiro. comércio.


Um hedge é uma posição de investimento destinada a compensar possíveis perdas ou ganhos que podem ser incorridos por um investimento complementar. Em linguagem simples, um hedge é usado para.


SAM - Sistema de Gestão de Prêmios.


SAM. gov O Sistema de Gestão de Prêmios (SAM) é o sistema oficial do governo dos EUA que consolidou as capacidades do CCR / FedReg, ORCA e EPLS.


Glossário de Transportes, Logística, Cadeia de Suprimentos e.


O glossário de transporte, logística, cadeia de suprimentos e termos de comércio internacional da Logística de entrada pode ajudá-lo a navegar através da confusão e chegar ao significado.


Margin Call. Gerenciamento de dinheiro | Gerenciamento de dinheiro. comércio.


Chamada de Margem de Forex Explicada - babypips babypips /. /margin-call-exemplified. html Saiba o que é uma chamada de margem na negociação forex e veja quão rápido você.


OU ACL E D AT A SH E ET ORACLE GLOBAL TRADE MANAGEMENT CLOUD.


OU ACL E D AT A SH E ET ORACLE GLOBAL TRADE MANAGEMENT CLOUD O Oracle Global Trade Management Cloud (GTM) é uma solução única de conformidade global que permite às empresas.


Sistema financeiro global - Wikipedia.


O sistema financeiro global é o quadro mundial de acordos legais, instituições e atores econômicos formais e informais que juntos facilitam.


Arquitetura do sistema de comércio algorítmico - Stuart ...


Arquitetura do sistema de negociação algorítmica proposta, incluindo arquiteturas de referência, padrões, táticas e tecnologias.


Arquitetura do piso comercial.


Idiomas disponíveis.


Opções de download.


Veja com o Adobe Reader em uma variedade de dispositivos.


Índice.


Arquitetura do piso comercial.


Visão geral executiva.


O aumento da concorrência, o maior volume de dados do mercado e as novas exigências regulatórias são algumas das forças motrizes que deram origem às mudanças na indústria. As empresas estão tentando manter sua vantagem competitiva mudando constantemente suas estratégias de negociação e aumentando a velocidade de negociação.


Uma arquitetura viável deve incluir as tecnologias mais recentes dos domínios de rede e de aplicativos. Tem que ser modular para fornecer um caminho gerenciável para evoluir cada componente com uma interrupção mínima no sistema geral. Portanto, a arquitetura proposta por este artigo é baseada em uma estrutura de serviços. Examinamos serviços como mensagens de latência ultra-baixa, monitoramento de latência, multicast, computação, armazenamento, virtualização de dados e aplicativos, resiliência comercial, mobilidade comercial e thin client.


A solução para os requisitos complexos da plataforma de negociação da próxima geração deve ser construída com uma mentalidade holística, cruzando os limites dos silos tradicionais, como negócios e tecnologia ou aplicativos e redes.


O objetivo principal deste documento é fornecer diretrizes para a construção de uma plataforma de negociação de latência ultra baixa, ao mesmo tempo em que otimizamos o débito bruto e a taxa de mensagens tanto para os dados de mercado como para os pedidos de negociação FIX.


Para conseguir isso, estamos propondo as seguintes tecnologias de redução de latência:


• Conexão de alta velocidade interconectada ou InfiniBand ou 10 Gbps para o cluster de negociação.


• Autocarro de mensagens de alta velocidade.


• Aceleração de aplicativos via RDMA sem reconexão de aplicativo.


• Monitoramento de latência em tempo real e re-direção do tráfego comercial para o caminho com menor latência.


Tendências e desafios da indústria.


As arquiteturas de negociação de próxima geração precisam responder ao aumento das demandas de velocidade, volume e eficiência. Por exemplo, espera-se que o volume de dados de mercado de opções seja duplicado após a introdução das opções de negociação de penny em 2007. Existem também exigências regulatórias para a melhor execução, que exigem o manuseio de atualizações de preços a taxas que se aproximam de 1M msg / seg. para trocas. Eles também exigem visibilidade sobre o frescor dos dados e prova de que o cliente obteve a melhor execução possível.


No curto prazo, a velocidade de negociação e inovação são diferenciadores-chave. Um número crescente de negociações é tratada por aplicativos de negociação algorítmica colocados o mais próximo possível do local de execução comercial. Um desafio com estas "caixa preta" Os motores comerciais são que eles compõem o aumento de volume ao emitir ordens apenas para cancelá-los e enviá-los novamente. A causa desse comportamento é a falta de visibilidade em que local oferece melhor execução. O comerciante humano é agora um "engenheiro financeiro", & quot; um "quot" (analista quantitativo) com habilidades de programação, que pode ajustar modelos de negociação sobre a marcha. As empresas desenvolvem novos instrumentos financeiros, como derivados do tempo ou transações de classe de ativos cruzados, e precisam implementar os novos aplicativos de forma rápida e escalável.


A longo prazo, a diferenciação competitiva deve ser feita a partir da análise, não apenas do conhecimento. Os comerciantes de estrelas de amanhã assumem riscos, conseguem uma verdadeira visão do cliente e sempre vencem o mercado (fonte IBM: www-935.ibm/services/us/imc/pdf/ge510-6270-trader. pdf).


A resiliência empresarial tem sido uma das principais preocupações das empresas comerciais desde 11 de setembro de 2001. As soluções nesta área variam de centros de dados redundantes situados em diferentes regiões geográficas e conectados a vários locais de negociação para soluções de comerciantes virtuais que oferecem aos comerciantes de energia a maior parte da funcionalidade de um piso comercial em um local remoto.


O setor de serviços financeiros é um dos mais exigentes em termos de requisitos de TI. A indústria está experimentando uma mudança arquitetônica para Arquitetura Orientada a Serviços (SOA), serviços da Web e virtualização de recursos de TI. A SOA aproveita o aumento da velocidade da rede para permitir a ligação dinâmica e a virtualização de componentes de software. Isso permite a criação de novas aplicações sem perder o investimento em sistemas e infra-estrutura existentes. O conceito tem o potencial de revolucionar a forma como a integração é feita, permitindo reduções significativas na complexidade e custo dessa integração (gigaspaces / download / MerrilLynchGigaSpacesWP. pdf).


Outra tendência é a consolidação de servidores em fazendas de servidores de centros de dados, enquanto as lojas de comerciantes possuem apenas extensões KVM e clientes ultrafinos (por exemplo, soluções de lâminas SunRay e HP). As redes de área metropolitana de alta velocidade permitem que os dados de mercado sejam multicast entre diferentes locais, possibilitando a virtualização do piso comercial.


Arquitetura de alto nível.


A Figura 1 representa a arquitetura de alto nível de um ambiente comercial. A planta ticker e os mecanismos de negociação algorítmica estão localizados no cluster de negócios de alto desempenho no centro de dados da empresa ou na troca. Os comerciantes humanos estão localizados na área de aplicativos do usuário final.


Funcionalmente, existem dois componentes de aplicativos no ambiente comercial da empresa, editores e assinantes. O ônibus de mensagens fornece o caminho de comunicação entre editores e assinantes.


Existem dois tipos de tráfego específicos para um ambiente comercial:


• Dados de mercado - Realiza informações de preços para instrumentos financeiros, notícias e outras informações de valor agregado, como a análise. É unidirecional e muito sensível à latência, tipicamente entregue ao multicast UDP. É medido em atualizações / seg. e em Mbps. Os fluxos de dados do mercado de um ou vários feeds externos, provenientes de provedores de dados de mercado, como bolsas de valores, agregadores de dados e ECNs. Cada provedor tem seu próprio formato de dados de mercado. Os dados são recebidos por manipuladores de alimentação, aplicativos especializados que normalizam e limpam os dados e enviam-no aos consumidores de dados, como motores de preços, aplicativos de negociação algorítmica ou comerciantes humanos. As empresas que vendem também enviam os dados de mercado para seus clientes, empresas de compra como fundos de investimento, hedge funds e outros gerentes de ativos. Algumas empresas compradoras podem optar por receber feeds diretos dos intercâmbios, reduzindo a latência.


Figura 1 Arquitetura de negociação para uma empresa Side Side / Sell Side.


Não existe um padrão industrial para formatos de dados de mercado. Cada troca tem seu formato proprietário. Os provedores de conteúdo financeiro, como Reuters e Bloomberg, agregam diferentes fontes de dados de mercado, normalizam e adicionam notícias ou análises. Exemplos de feeds consolidados são RDF (Reuters Data Feed), RWF (Reuters Wire Format) e Bloomberg Professional Services Data.


Para entregar dados de mercado de baixa latência, ambos os fornecedores lançaram feeds de dados de mercado em tempo real que são menos processados ​​e têm menos análises:


- Bloomberg B-Pipe-Com B-Pipe, a Bloomberg desloca o feed de dados do mercado de sua plataforma de distribuição porque um terminal Bloomberg não é necessário para obter B-Pipe. Wombat e Reuters Feed Handlers anunciaram apoio para a B-Pipe.


Uma empresa pode decidir receber feeds diretamente de uma troca para reduzir a latência. Os ganhos na velocidade de transmissão podem variar entre 150 milissegundos e 500 milissegundos. Esses feeds são mais complexos e mais caros e a empresa tem que construir e manter sua própria planta de ticker (financetech / featured / showArticle. jhtml? ArticleID = 60404306).


• Negociação de encomendas: este tipo de tráfego carrega os negócios reais. É bidirecional e muito sensível à latência. É medido em mensagens / seg. e Mbps. Os pedidos originam-se de uma empresa compradora ou comercial e são enviados para locais de negociação como um Exchange ou ECN para execução. O formato mais comum para o transporte de pedidos é FIX (Financial Information eXchange-fixprotocol /). As aplicações que manipulam mensagens FIX são chamadas de motores FIX e eles se interagem com sistemas de gerenciamento de pedidos (OMS).


Uma otimização para FIX é denominada FAST (Fix Adapted for Streaming), que usa um esquema de compressão para reduzir o comprimento da mensagem e, de fato, reduzir a latência. FAST é direcionado mais para a entrega de dados de mercado e tem potencial para se tornar um padrão. FAST também pode ser usado como um esquema de compressão para formatos de dados de mercado proprietários.


Para reduzir a latência, as empresas podem optar por estabelecer acesso direto ao mercado (DMA).


O DMA é o processo automatizado de rotear uma ordem de valores mobiliários diretamente para um local de execução, evitando assim a intervenção de um terceiro (towergroup / research / content / glossary. jsp? Page = 1 e glossaryId = 383). DMA requer uma conexão direta com o local de execução.


O barramento de mensagens é um software de middleware de fornecedores como Tibco, 29West, Reuters RMDS, ou uma plataforma de código aberto como a AMQP. O barramento de mensagens usa um mecanismo confiável para entregar mensagens. O transporte pode ser feito através de TCP / IP (TibcoEMS, 29West, RMDS e AMQP) ou UDP / multicast (TibcoRV, 29West e RMDS). Um conceito importante na distribuição de mensagens é o "fluxo de tópicos", "quot; que é um subconjunto de dados de mercado definidos por critérios como símbolo de ticker, indústria ou uma certa cesta de instrumentos financeiros. Os assinantes se juntam a grupos de tópicos mapeados para um ou vários sub-tópicos para receber apenas as informações relevantes. No passado, todos os comerciantes receberam todos os dados do mercado. Nos atuais volumes de tráfego, isso seria sub-ótimo.


A rede desempenha um papel crítico no ambiente comercial. Os dados de mercado são levados ao balcão onde os comerciantes humanos estão localizados através de uma rede de alta velocidade Campus ou Metro Area. Alta disponibilidade e baixa latência, bem como alto rendimento, são as métricas mais importantes.


O ambiente de negociação de alto desempenho tem a maioria de seus componentes no farm de servidores do Data Center. Para minimizar a latência, os mecanismos de negociação algorítmica precisam estar localizados na proximidade dos manipuladores de alimentação, dos motores FIX e dos sistemas de gerenciamento de pedidos. Um modelo de implantação alternativo possui os sistemas de negociação algorítmica localizados em uma troca ou um provedor de serviços com conectividade rápida para trocas múltiplas.


Modelos de implantação.


Existem dois modelos de implantação para uma plataforma de negociação de alto desempenho. As empresas podem optar por ter uma mistura dos dois:


• Centro de dados da empresa comercial (Figura 2) - Este é o modelo tradicional, onde uma plataforma de negociação de pleno direito é desenvolvida e mantida pela empresa com links de comunicação para todos os locais de negociação. A latência varia com a velocidade dos links e o número de lúpulos entre a empresa e os locais.


Figura 2 Modelo de implantação tradicional.


• Co-localização no local de negociação (trocas, provedores de serviços financeiros (FSP)) (Figura 3)


A empresa comercial implementa sua plataforma de negociação automatizada o mais próximo possível dos locais de execução para minimizar a latência.


Figura 3 Modelo de implantação hospedado.


Arquitetura de negociação orientada para serviços.


Estamos propondo uma estrutura orientada a serviços para a construção da arquitetura de negociação da próxima geração. Esta abordagem fornece uma estrutura conceitual e um caminho de implementação baseado em modularização e minimização de interdependências.


Este quadro fornece às empresas uma metodologia para:


• Avalie seu estado atual em termos de serviços.


• Priorizar os serviços com base no seu valor para o negócio.


• Evolua a plataforma de negociação para o estado desejado usando uma abordagem modular.


A arquitetura de negociação de alto desempenho depende dos seguintes serviços, conforme definido pelo quadro de arquitetura de serviços representado na Figura 4.


Figura 4 Estrutura de Arquitetura de Serviços para Negociação de Alto Desempenho.


Tabela 1 Descrições e tecnologias de serviços.


Mensagens de latência ultra baixa.


Instrumento-aparelhos, agentes de software e módulos de roteador.


SO e virtualização de E / S, Remote Direct Memory Access (RDMA), TCP Offload Engines (TOE)


Middleware que paraleliza o processamento de aplicativos.


Middleware que acelera o acesso a dados para aplicativos, por exemplo, armazenamento em cache na memória.


Replicação multicast assistida por hardware através da rede; Optimizações multicast Layer 2 e Layer 3.


Virtualização de hardware de armazenamento (VSANs), replicação de dados, backup remoto e virtualização de arquivos.


Resiliência comercial e mobilidade.


Rede local e local de balanceamento e redes de campus de alta disponibilidade.


Serviços de aplicativos de área ampla.


Aceleração de aplicações através de uma conexão WAN para comerciantes que residem fora do campus.


Serviço de cliente fino.


Desacoplamento dos recursos de computação dos terminais enfrentados pelo usuário final.


Serviço de Mensagens de Latência Ultra-Baixa.


Esse serviço é fornecido pelo barramento de mensagens, que é um sistema de software que resolva o problema de conectar muitas aplicações. O sistema consiste em:


• Um conjunto de esquemas de mensagens pré-definidos.


• Um conjunto de mensagens de comando comuns.


• Uma infra-estrutura de aplicativos compartilhados para enviar as mensagens aos destinatários. A infra-estrutura compartilhada pode ser baseada em um corretor de mensagens ou em um modelo de publicação / assinatura.


Os principais requisitos para o barramento de mensagens de próxima geração são (fonte 29West):


• menor latência possível (por exemplo, menos de 100 microssegundos)


• Estabilidade sob carga pesada (por exemplo, mais de 1,4 milhões de msg / seg.)


• Controle e flexibilidade (controle de taxa e transportes configuráveis)


Há esforços na indústria para padronizar o ônibus de mensagens. O Advanced Message Queuing Protocol (AMQP) é um exemplo de um padrão aberto defendido por J. P. Morgan Chase e apoiado por um grupo de fornecedores, tais como Cisco, Envoy Technologies, Red Hat, TWIST Process Innovations, Iona, 29West e iMatix. Dois dos principais objetivos são fornecer um caminho mais simples para a interoperabilidade para aplicações escritas em diferentes plataformas e modularidade para que o middleware possa ser facilmente desenvolvido.


Em termos muito gerais, um servidor AMQP é análogo a um servidor de E-mail com cada troca atuando como um agente de transferência de mensagens e cada fila de mensagens como caixa de correio. As ligações definem as tabelas de roteamento em cada agente de transferência. Os editores enviam mensagens para agentes de transferência individuais, que então roteiam as mensagens para as caixas de correio. Os consumidores tomam mensagens de caixas de correio, o que cria um modelo poderoso e flexível que é simples (fonte: amqp / tikiwiki / tiki-index. php? Page = OpenApproach # Why_AMQP_).


Serviço de Monitoramento de Latência.


Os principais requisitos para este serviço são:


• Granularidade sub-milissegundo de medidas.


• Visibilidade em tempo real sem adicionar latência ao tráfego comercial.


• Capacidade de diferenciar a latência do processamento de aplicativos da latência de trânsito da rede.


• Capacidade de lidar com altas taxas de mensagens.


• Fornecer uma interface programática para aplicativos de negociação para receber dados de latência, permitindo que os mecanismos de negociação algorítmica se adaptem às condições de mudança.


• Correlação de eventos de rede com eventos de aplicativos para fins de solução de problemas.


A latência pode ser definida como o intervalo de tempo entre quando uma ordem comercial é enviada e quando a mesma ordem é reconhecida e agendada pela parte receptora.


Abordar o problema de latência é um problema complexo, que requer uma abordagem holística que identifique todas as fontes de latência e aplique diferentes tecnologias em diferentes camadas do sistema.


A Figura 5 mostra a variedade de componentes que podem introduzir latência em cada camada da pilha OSI. Ele também mapeia cada fonte de latência com uma possível solução e uma solução de monitoramento. Esta abordagem em camadas pode dar às empresas uma forma mais estruturada de atacar a questão da latência, pelo qual cada componente pode ser considerado como um serviço e tratado de forma consistente em toda a empresa.


Manter uma medida precisa do estado dinâmico desse intervalo de tempo em rotas alternativas e destinos pode ser de grande ajuda nas decisões táticas de negociação. A capacidade de identificar a localização exata dos atrasos, seja na rede de ponta do cliente, no centro central de processamento ou no nível de aplicação da transação, determina a capacidade dos provedores de serviços de atender aos seus acordos de nível de serviço comercial (SLA). Para os formulários do buy-side e do sell-side, bem como para os comerciantes de dados de mercado, a rápida identificação e remoção de estrangulamentos se traduz diretamente em oportunidades de comércio e receita aprimoradas.


Figura 5 Arquitetura de gerenciamento de latência.


Ferramentas de monitoramento de baixa latência da Cisco.


As ferramentas tradicionais de monitoramento de rede operam com minutos ou segundos de granularidade. As plataformas de negociação de última geração, especialmente as que oferecem suporte à negociação algorítmica, requerem latências inferiores a 5 ms e níveis extremamente baixos de perda de pacotes. Em uma LAN Gigabit, uma microburst de 100 ms pode causar perda de 10.000 transtornos ou atraso excessivo.


A Cisco oferece aos seus clientes uma escolha de ferramentas para medir a latência em um ambiente comercial:


• Gerenciador de qualidade de banda (BQM) (OEM da Corvil)


• Solução de Monitoramento de Latência de Serviços Financeiros (FSMS) baseada em Cisco AON


Gerenciador de Qualidade de Banda Larga.


O Gerenciador de qualidade de banda (BQM) 4.0 é um produto de gerenciamento de desempenho de aplicativos de rede de próxima geração que permite aos clientes monitorar e provisionar sua rede para níveis controlados de latência e desempenho de perda. Embora a BQM não seja exclusivamente alvo de redes comerciais, sua visibilidade por microsecondes combinada com características de provisionamento de banda larga inteligentes o torna ideal para esses ambientes exigentes.


O Cisco BQM 4.0 implementa um amplo conjunto de tecnologias de análise de tráfego e de medição de tráfego patenteadas e pendentes de patente que proporcionam ao usuário uma visibilidade e uma compreensão sem precedentes de como otimizar a rede para obter o máximo desempenho de aplicativos.


O Cisco BQM agora é suportado na família de produtos do Cisco Application Deployment Engine (ADE). A família de produtos Cisco ADE é a plataforma de escolha para aplicativos de gerenciamento de rede da Cisco.


BQM Benefícios.


A micro visibilidade da Cisco BQM é a capacidade de detectar, medir e analisar eventos de transição de latência, jitter e perda induzindo níveis microscópios de granularidade por resolução de pacotes. Isso permite que o Cisco BQM detecte e determine o impacto dos eventos de trânsito na latência, jitter e perda da rede. Critical para ambientes de negociação é que o BQM pode suportar medições de latência, perda e jitter de um jeito para o tráfego TCP e UDP (multicast). Isso significa que ele é transparente, tanto para o tráfego comercial quanto para os feeds de dados de mercado.


O BQM permite ao usuário especificar um conjunto abrangente de limiares (contra atividade de microburst, latência, perda, jitter, utilização, etc.) em todas as interfaces. BQM, em seguida, opera uma captura de pacote de rolagem de fundo. Sempre que ocorre uma violação de limite ou outro evento potencial de degradação de desempenho, ele desencadeia o Cisco BQM para armazenar a captura de pacotes no disco para análise posterior. Isso permite ao usuário examinar detalhadamente o tráfego de aplicativos que foi afetado pela degradação do desempenho ("as vítimas") e o tráfego que causou a degradação do desempenho (& quot; the culpits & quot;). Isso pode reduzir significativamente o tempo gasto no diagnóstico e na resolução de problemas de desempenho da rede.


O BQM também é capaz de fornecer recomendações detalhadas de aprovisionamento de políticas de largura de banda e qualidade de serviço (QoS), que o usuário pode aplicar diretamente para alcançar o desempenho da rede desejado.


Medidas BQM ilustradas.


Para entender a diferença entre algumas das técnicas de medição mais convencionais e a visibilidade fornecida pela BQM, podemos observar alguns gráficos de comparação. No primeiro conjunto de gráficos (Figura 6 e Figura 7), vemos a diferença entre a latência medida pelo Monitor de Qualidade de Rede Passiva (PNQM) da BQM e a latência medida pela injeção de pacotes de ping a cada 1 segundo no fluxo de tráfego.


Na Figura 6, vemos a latência relatada por pacotes de ping ICMP de 1 segundo para tráfego de rede real (é dividido por 2 para dar uma estimativa para o atraso de sentido único). Ele mostra o atraso confortavelmente abaixo de cerca de 5 ms por quase todo o tempo.


Figura 6 Latência relatada por pacotes de ping ICMP de 1 segundo para tráfego de rede real.


Na Figura 7, vemos a latência relatada pelo PNQM pelo mesmo tráfego ao mesmo tempo. Aqui, vemos que ao medir a latência unidirecional dos pacotes de aplicativos reais, obtemos uma imagem radicalmente diferente. Aqui, a latência está pairando em torno de 20 ms, com rajadas ocasionais muito maiores. A explicação é que, como o ping está enviando pacotes apenas a cada segundo, está perdendo a maior parte da latência do tráfego do aplicativo. Na verdade, os resultados do ping normalmente apenas indicam atraso de propagação de ida e volta em vez de latência de aplicação realista em toda a rede.


Figura 7 Latência relatada pelo PNQM para tráfego de rede real.


No segundo exemplo (Figura 8), vemos a diferença nos níveis de carga ou saturação de link relatados entre uma visão média de 5 minutos e uma visão de microburst de 5 ms (o BQM pode informar sobre microbursts para uma precisão de 10 a 100 nanosegundos). A linha verde mostra a utilização média em médias de 5 minutos para ser baixa, talvez até 5 Mbits / s. A trama azul escuro mostra a atividade de microburst de 5ms que atinge entre 75 Mbits / s e 100 Mbits / s, a velocidade da LAN efetivamente. O BQM mostra esse nível de granularidade para todas as aplicações e também fornece regras de provisionamento claras para permitir ao usuário controlar ou neutralizar essas microbursas.


Figura 8 Diferença na carga de ligação relatada entre uma visão média de 5 minutos e uma visão de microburst de 5 ms.


Implementação do BQM na Rede de Negociação.


A Figura 9 mostra uma implantação BQM típica em uma rede comercial.


Figura 9 Implementação típica do BQM em uma rede comercial.


BQM pode então ser usado para responder a esses tipos de perguntas:


• Algum dos meus links de núcleo Gigabit LAN está saturado por mais de X milissegundos? Isso está causando perda? Quais links mais se beneficiarão de uma atualização para Etherchannel ou 10 Gigabit?


• O tráfego do aplicativo está causando a saturação dos meus links de 1 Gigabit?


• Algum dos dados do mercado está experimentando perda de ponta a ponta?


• Quanta latência adicional o centro de dados de failover tem? Is this link sized correctly to deal with microbursts?


• Are my traders getting low latency updates from the market data distribution layer? Are they seeing any delays greater than X milliseconds?


Being able to answer these questions simply and effectively saves time and money in running the trading network.


BQM is an essential tool for gaining visibility in market data and trading environments. It provides granular end-to-end latency measurements in complex infrastructures that experience high-volume data movement. Effectively detecting microbursts in sub-millisecond levels and receiving expert analysis on a particular event is invaluable to trading floor architects. Smart bandwidth provisioning recommendations, such as sizing and what-if analysis, provide greater agility to respond to volatile market conditions. As the explosion of algorithmic trading and increasing message rates continues, BQM, combined with its QoS tool, provides the capability of implementing QoS policies that can protect critical trading applications.


Cisco Financial Services Latency Monitoring Solution.


Cisco and Trading Metrics have collaborated on latency monitoring solutions for FIX order flow and market data monitoring. Cisco AON technology is the foundation for a new class of network-embedded products and solutions that help merge intelligent networks with application infrastructure, based on either service-oriented or traditional architectures. Trading Metrics is a leading provider of analytics software for network infrastructure and application latency monitoring purposes (tradingmetrics/).


The Cisco AON Financial Services Latency Monitoring Solution (FSMS) correlated two kinds of events at the point of observation:


• Network events correlated directly with coincident application message handling.


• Trade order flow and matching market update events.


Using time stamps asserted at the point of capture in the network, real-time analysis of these correlated data streams permits precise identification of bottlenecks across the infrastructure while a trade is being executed or market data is being distributed. By monitoring and measuring latency early in the cycle, financial companies can make better decisions about which network service—and which intermediary, market, or counterparty—to select for routing trade orders. Likewise, this knowledge allows more streamlined access to updated market data (stock quotes, economic news, etc.), which is an important basis for initiating, withdrawing from, or pursuing market opportunities.


The components of the solution are:


• AON hardware in three form factors:


– AON Network Module for Cisco 2600/2800/3700/3800 routers.


– AON Blade for the Cisco Catalyst 6500 series.


– AON 8340 Appliance.


• Trading Metrics M&A 2.0 software, which provides the monitoring and alerting application, displays latency graphs on a dashboard, and issues alerts when slowdowns occur (tradingmetrics/TM_brochure. pdf).


Figure 10 AON-Based FIX Latency Monitoring.


Cisco IP SLA.


Cisco IP SLA is an embedded network management tool in Cisco IOS which allows routers and switches to generate synthetic traffic streams which can be measured for latency, jitter, packet loss, and other criteria (cisco/go/ipsla).


Two key concepts are the source of the generated traffic and the target. Both of these run an IP SLA "responder," which has the responsibility to timestamp the control traffic before it is sourced and returned by the target (for a round trip measurement). Various traffic types can be sourced within IP SLA and they are aimed at different metrics and target different services and applications. The UDP jitter operation is used to measure one-way and round-trip delay and report variations. As the traffic is time stamped on both sending and target devices using the responder capability, the round trip delay is characterized as the delta between the two timestamps.


A new feature was introduced in IOS 12.3(14)T, IP SLA Sub Millisecond Reporting, which allows for timestamps to be displayed with a resolution in microseconds, thus providing a level of granularity not previously available. This new feature has now made IP SLA relevant to campus networks where network latency is typically in the range of 300-800 microseconds and the ability to detect trends and spikes (brief trends) based on microsecond granularity counters is a requirement for customers engaged in time-sensitive electronic trading environments.


As a result, IP SLA is now being considered by significant numbers of financial organizations as they are all faced with requirements to:


• Report baseline latency to their users.


• Trend baseline latency over time.


• Respond quickly to traffic bursts that cause changes in the reported latency.


Sub-millisecond reporting is necessary for these customers, since many campus and backbones are currently delivering under a second of latency across several switch hops. Electronic trading environments have generally worked to eliminate or minimize all areas of device and network latency to deliver rapid order fulfillment to the business. Reporting that network response times are "just under one millisecond" is no longer sufficient; the granularity of latency measurements reported across a network segment or backbone need to be closer to 300-800 micro-seconds with a degree of resolution of 100 ì seconds.


IP SLA recently added support for IP multicast test streams, which can measure market data latency.


A typical network topology is shown in Figure 11 with the IP SLA shadow routers, sources, and responders.


Figure 11 IP SLA Deployment.


Computing Services.


Computing services cover a wide range of technologies with the goal of eliminating memory and CPU bottlenecks created by the processing of network packets. Trading applications consume high volumes of market data and the servers have to dedicate resources to processing network traffic instead of application processing.


• Transport processing—At high speeds, network packet processing can consume a significant amount of server CPU cycles and memory. An established rule of thumb states that 1Gbps of network bandwidth requires 1 GHz of processor capacity (source Intel white paper on I/O acceleration intel/technology/ioacceleration/306517.pdf).


• Intermediate buffer copying—In a conventional network stack implementation, data needs to be copied by the CPU between network buffers and application buffers. This overhead is worsened by the fact that memory speeds have not kept up with increases in CPU speeds. For example, processors like the Intel Xeon are approaching 4 GHz, while RAM chips hover around 400MHz (for DDR 3200 memory) (source Intel intel/technology/ioacceleration/306517.pdf).


• Context switching—Every time an individual packet needs to be processed, the CPU performs a context switch from application context to network traffic context. This overhead could be reduced if the switch would occur only when the whole application buffer is complete.


Figure 12 Sources of Overhead in Data Center Servers.


• TCP Offload Engine (TOE)—Offloads transport processor cycles to the NIC. Moves TCP/IP protocol stack buffer copies from system memory to NIC memory.


• Remote Direct Memory Access (RDMA)—Enables a network adapter to transfer data directly from application to application without involving the operating system. Eliminates intermediate and application buffer copies (memory bandwidth consumption).


• Kernel bypass — Direct user-level access to hardware. Dramatically reduces application context switches.


Figure 13 RDMA and Kernel Bypass.


InfiniBand is a point-to-point (switched fabric) bidirectional serial communication link which implements RDMA, among other features. Cisco offers an InfiniBand switch, the Server Fabric Switch (SFS): cisco/application/pdf/en/us/guest/netsol/ns500/c643/cdccont_0900aecd804c35cb. pdf.


Figure 14 Typical SFS Deployment.


Trading applications benefit from the reduction in latency and latency variability, as proved by a test performed with the Cisco SFS and Wombat Feed Handlers by Stac Research:


Application Virtualization Service.


De-coupling the application from the underlying OS and server hardware enables them to run as network services. One application can be run in parallel on multiple servers, or multiple applications can be run on the same server, as the best resource allocation dictates. This decoupling enables better load balancing and disaster recovery for business continuance strategies. The process of re-allocating computing resources to an application is dynamic. Using an application virtualization system like Data Synapse's GridServer, applications can migrate, using pre-configured policies, to under-utilized servers in a supply-matches-demand process (networkworld/supp/2005/ndc1/022105virtual. html? page=2).


There are many business advantages for financial firms who adopt application virtualization:


• Faster time to market for new products and services.


• Faster integration of firms following merger and acquisition activity.


• Increased application availability.


• Better workload distribution, which creates more "head room" for processing spikes in trading volume.


• Operational efficiency and control.


• Reduction in IT complexity.


Currently, application virtualization is not used in the trading front-office. One use-case is risk modeling, like Monte Carlo simulations. As the technology evolves, it is conceivable that some the trading platforms will adopt it.


Data Virtualization Service.


To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity. With solutions from data virtualization software vendors such as Gemstone or Tangosol (now Oracle), financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching. The net result is that all users have instant access to these data resources across a distributed network (gridtoday/03/0210/101061.html).


This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing (XTP) (gartner/DisplayDocument? ref=g_search&id=500947). Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation.


One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Today's data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limits—they have been developed without the WAN in mind.


Figure 15 GemStone GemFire Distributed Caching.


Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster.


Multicast Service.


Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth.


IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two servers—one primary and one backup for redundancy.


There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerage's network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center.


The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization.


Figure 16 Market Data Distribution Players.


The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco.


A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders.


Figure 17 Market Data Architecture.


Design Issues.


Number of Groups/Channels to Use.


Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message.


In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returns—there is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets.


Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically:


Another example is the Nasdaq Totalview service, broken up this way:


This approach allows for straight forward network/application management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user.


In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient.


Intermittent Sources.


A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created.


PIM-Bidir or PIM-SSM.


The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications.


Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path.


Intermittent sources are not an issue with PIM-Bidir and PIM-SSM.


Null Packets.


In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems.


Periodic Keepalives or Heartbeats.


An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires.


S, G Expiry Timer.


Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed.


RTCP Feedback.


A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided.


Fast Producers and Slow Consumers.


Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle.


The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application.


Tibco Heartbeats.


TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions.


Multicast Forwarding Options.


PIM Sparse Mode.


The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage.


There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections.


The main components of the PIM-SM implementation are:


• PIM Sparse Mode v2.


• Shared Tree (spt-threshold infinity)


A design option in the brokerage or in the exchange.


Details of Anycast RP can be found in:


The classic high availability design for Tibco in the brokerage network is documented in:


Bidirectional PIM.


PIM-Bidir is an optimization of PIM Sparse Mode for many-to-many applications. It has several key advantages over a PIM-SM deployment:


• Better support for intermittent sources.


• No data-triggered events.


One of the weaknesses of PIM-SM is that the network continually needs to react to active data flows. This can cause non-deterministic behavior that may be hard to troubleshoot. PIM-Bidir has the following major protocol differences over PIM-SM:


– No source registration.


Source traffic is automatically sent to the RP and then down to the interested receivers. There is no unicast encapsulation, PIM joins from the RP to the first hop router and then registration stop messages.


All PIM-Bidir traffic is forwarded on a *,G forwarding entry. The router does not have to monitor the traffic flow on a *,G and then send joins when the traffic passes a threshold.


– No need for an actual RP.


The RP does not have an actual protocol function in PIM-Bidir. The RP acts as a routing vector in which all the traffic converges. The RP can be configured as an address that is not assigned to any particular device. This is called a Phantom RP.


– No need for MSDP.


MSDP provides source information between RPs in a PIM-SM network. PIM-Bidir does not use the active source information for any forwarding decisions and therefore MSDP is not required.


Bidirectional PIM is ideally suited for the brokerage network in the data center of the exchange. In this environment there are many sources sending to a relatively few set of groups in a many-to-many traffic pattern.


The key components of the PIM-Bidir implementation are:


Further details about Phantom RP and basic PIM-Bidir design are documented in:


Source Specific Multicast.


PIM-SSM is an optimization of PIM Sparse Mode for one-to-many applications. In certain environments it can offer several distinct advantages over PIM-SM. Like PIM-Bidir, PIM-SSM does not rely on any data-triggered events. Furthermore, PIM-SSM does not require an RP at all—there is no such concept in PIM-SSM. The forwarding information in the network is completely controlled by the interest of the receivers.


Source Specific Multicast is ideally suited for market data delivery in the financial service provider. The FSP can receive the feeds from the exchanges and then route them to the end of their network.


Many FSPs are also implementing MPLS and Multicast VPNs in their core. PIM-SSM is the preferred method for transporting traffic in VRFs.


When PIM-SSM is deployed all the way to the end user, the receiver indicates his interest in a particular S, G with IGMPv3. Even though IGMPv3 was defined by RFC 2236 back in October, 2002, it still has not been implemented by all edge devices. This creates a challenge for deploying an end-to-end PIM-SSM service. A transitional solution has been developed by Cisco to enable an edge device that supports IGMPv2 to participate in an PIM-SSM service. This feature is called SSM Mapping and is documented in:


Storage Services.


The service provides storage capabilities into the market data and trading environments. Trading applications access backend storage to connect to different databases and other repositories consisting of portfolios, trade settlements, compliance data, management applications, Enterprise Service Bus (ESB), and other critical applications where reliability and security is critical to the success of the business. The main requirements for the service are:


Storage virtualization is an enabling technology that simplifies management of complex infrastructures, enables non-disruptive operations, and facilitates critical elements of a proactive information lifecycle management (ILM) strategy. EMC Invista running on the Cisco MDS 9000 enables heterogeneous storage pooling and dynamic storage provisioning, allowing allocation of any storage to any application. High availability is increased with seamless data migration. Appropriate class of storage is allocated to point-in-time copies (clones). Storage virtualization is also leveraged through the use of Virtual Storage Area Networks (VSANs), which enable the consolidation of multiple isolated SANs onto a single physical SAN infrastructure, while still partitioning them as completely separate logical entities. VSANs provide all the security and fabric services of traditional SANs, yet give organizations the flexibility to easily move resources from one VSAN to another. This results in increased disk and network utilization while driving down the cost of management. Integrated Inter VSAN Routing (IVR) enables sharing of common resources across VSANs.


Figure 18 High Performance Computing Storage.


Replication of data to a secondary and tertiary data center is crucial for business continuance. Replication offsite over Fiber Channel over IP (FCIP) coupled with write acceleration and tape acceleration provides improved performance over long distance. Continuous Data Replication (CDP) is another mechanism which is gaining popularity in the industry. It refers to backup of computer data by automatically saving a copy of every change made to that data, essentially capturing every version of the data that the user saves. It allows the user or administrator to restore data to any point in time. Solutions from EMC and Incipient utilize the SANTap protocol on the Storage Services Module (SSM) in the MDS platform to provide CDP functionality. The SSM uses the SANTap service to intercept and redirect a copy of a write between a given initiator and target. The appliance does not reside in the data path—it is completely passive. The CDP solutions typically leverage a history journal that tracks all changes and bookmarks that identify application-specific events. This ensures that data at any point in time is fully self-consistent and is recoverable instantly in the event of a site failure.


Backup procedure reliability and performance are extremely important when storing critical financial data to a SAN. The use of expensive media servers to move data from disk to tape devices can be cumbersome. Network-accelerated serverless backup (NASB) helps you back up increased amounts of data in shorter backup time frames by shifting the data movement from multiple backup servers to Cisco MDS 9000 Series multilayer switches. This technology decreases impact on application servers because the MDS offloads the application and backup servers. It also reduces the number of backup and media servers required, thus reducing CAPEX and OPEX. The flexibility of the backup environment increases because storage and tape drives can reside anywhere on the SAN.


Trading Resilience and Mobility.


The main requirements for this service are to provide the virtual trader:


• Fully scalable and redundant campus trading environment.


• Resilient server load balancing and high availability in analytic server farms.


• Global site load balancing that provide the capability to continue participating in the market venues of closest proximity.


A highly-available campus environment is capable of sustaining multiple failures (i. e., links, switches, modules, etc.), which provides non-disruptive access to trading systems for traders and market data feeds. Fine-tuned routing protocol timers, in conjunction with mechanisms such as NSF/SSO, provide subsecond recovery from any failure.


The high-speed interconnect between data centers can be DWDM/dark fiber, which provides business continuance in case of a site failure. Each site is 100km-200km apart, allowing synchronous data replication. Usually the distance for synchronous data replication is 100km, but with Read/Write Acceleration it can stretch to 200km. A tertiary data center can be greater than 200km away, which would replicate data in an asynchronous fashion.


Figure 19 Trading Resilience.


A robust server load balancing solution is required for order routing, algorithmic trading, risk analysis, and other services to offer continuous access to clients regardless of a server failure. Multiple servers encompass a "farm" and these hosts can added/removed without disruption since they reside behind a virtual IP (VIP) address which is announced in the network.


A global site load balancing solution provides remote traders the resiliency to access trading environments which are closer to their location. This minimizes latency for execution times since requests are always routed to the nearest venue.


Figure 20 Virtualization of Trading Environment.


A trading environment can be virtualized to provide segmentation and resiliency in complex architectures. Figure 20 illustrates a high-level topology depicting multiple market data feeds entering the environment, whereby each vendor is assigned its own Virtual Routing and Forwarding (VRF) instance. The market data is transferred to a high-speed InfiniBand low-latency compute fabric where feed handlers, order routing systems, and algorithmic trading systems reside. All storage is accessed via a SAN and is also virtualized with VSANs, allowing further security and segmentation. The normalized data from the compute fabric is transferred to the campus trading environment where the trading desks reside.


Wide Area Application Services.


This service provides application acceleration and optimization capabilities for traders who are located outside of the core trading floor facility/data center and working from a remote office. To consolidate servers and increase security in remote offices, file servers, NAS filers, storage arrays, and tape drives are moved to a corporate data center to increase security and regulatory compliance and facilitate centralized storage and archival management. As the traditional trading floor is becoming more virtual, wide area application services technology is being utilized to provide a "LAN-like" experience to remote traders when they access resources at the corporate site. Traders often utilize Microsoft Office applications, especially Excel in addition to Sharepoint and Exchange. Excel is used heavily for modeling and permutations where sometime only small portions of the file are changed. CIFS protocol is notoriously known to be "chatty," where several message normally traverse the WAN for a simple file operation and it is addressed by Wide Area Application Service (WAAS) technology. Bloomberg and Reuters applications are also very popular financial tools which access a centralized SAN or NAS filer to retrieve critical data which is fused together before represented to a trader's screen.


Figure 21 Wide Area Optimization.


A pair of Wide Area Application Engines (WAEs) that reside in the remote office and the data center provide local object caching to increase application performance. The remote office WAEs can be a module in the ISR router or a stand-alone appliance. The data center WAE devices are load balanced behind an Application Control Engine module installed in a pair of Catalyst 6500 series switches at the aggregation layer. The WAE appliance farm is represented by a virtual IP address. The local router in each site utilizes Web Cache Communication Protocol version 2 (WCCP v2) to redirect traffic to the WAE that intercepts the traffic and determines if there is a cache hit or miss. The content is served locally from the engine if it resides in cache; otherwise the request is sent across the WAN the initial time to retrieve the object. This methodology optimizes the trader experience by removing application latency and shielding the individual from any congestion in the WAN.


WAAS uses the following technologies to provide application acceleration:


• Data Redundancy Elimination (DRE) is an advanced form of network compression which allows the WAE to maintain a history of previously-seen TCP message traffic for the purposes of reducing redundancy found in network traffic. This combined with the Lempel-Ziv (LZ) compression algorithm reduces the number of redundant packets that traverse the WAN, which improves application transaction performance and conserves bandwidth.


• Transport Flow Optimization (TFO) employs a robust TCP proxy to safely optimize TCP at the WAE device by applying TCP-compliant optimizations to shield the clients and servers from poor TCP behavior because of WAN conditions. By running a TCP proxy between the devices and leveraging an optimized TCP stack between the devices, many of the problems that occur in the WAN are completely blocked from propagating back to trader desktops. The traders experience LAN-like TCP response times and behavior because the WAE is terminating TCP locally. TFO improves reliability and throughput through increases in TCP window scaling and sizing enhancements in addition to superior congestion management.


Thin Client Service.


This service provides a "thin" advanced trading desktop which delivers significant advantages to demanding trading floor environments requiring continuous growth in compute power. As financial institutions race to provide the best trade executions for their clients, traders are utilizing several simultaneous critical applications that facilitate complex transactions. It is not uncommon to find three or more workstations and monitors at a trader's desk which provide visibility into market liquidity, trading venues, news, analysis of complex portfolio simulations, and other financial tools. In addition, market dynamics continue to evolve with Direct Market Access (DMA), ECNs, alternative trading volumes, and upcoming regulation changes with Regulation National Market System (RegNMS) in the US and Markets in Financial Instruments Directive (MiFID) in Europe. At the same time, business seeks greater control, improved ROI, and additional flexibility, which creates greater demands on trading floor infrastructures.


Traders no longer require multiple workstations at their desk. Thin clients consist of keyboard, mouse, and multi-displays which provide a total trader desktop solution without compromising security. Hewlett Packard, Citrix, Desktone, Wyse, and other vendors provide thin client solutions to capitalize on the virtual desktop paradigm. Thin clients de-couple the user-facing hardware from the processing hardware, thus enabling IT to grow the processing power without changing anything on the end user side. The workstation computing power is stored in the data center on blade workstations, which provide greater scalability, increased data security, improved business continuance across multiple sites, and reduction in OPEX by removing the need to manage individual workstations on the trading floor. One blade workstation can be dedicated to a trader or shared among multiple traders depending on the requirements for computer power.


The "thin client" solution is optimized to work in a campus LAN environment, but can also extend the benefits to traders in remote locations. Latency is always a concern when there is a WAN interconnecting the blade workstation and thin client devices. The network connection needs to be sized accordingly so traffic is not dropped if saturation points exist in the WAN topology. WAN Quality of Service (QoS) should prioritize sensitive traffic. There are some guidelines which should be followed to allow for an optimized user experience. A typical highly-interactive desktop experience requires a client-to-blade round trip latency of <20ms for a 2Kb packet size. There may be a slight lag in display if network latency is between 20ms to 40ms. A typical trader desk with a four multi-display terminal requires 2-3Mbps bandwidth consumption with seamless communication with blade workstation(s) in the data center. Streaming video (800x600 at 24fps/full color) requires 9 Mbps bandwidth usage.


Figure 22 Thin Client Architecture.


Management of a large thin client environment is simplified since a centralized IT staff manages all of the blade workstations dispersed across multiple data centers. A trader is redirected to the most available environment in the enterprise in the event of a particular site failure. High availability is a key concern in critical financial environments and the Blade Workstation design provides rapid provisioning of another blade workstation in the data center. This resiliency provides greater uptime, increases in productivity, and OpEx reduction.


Advanced Encryption Standard.


Advanced Message Queueing Protocol.


Application Oriented Networking.


The Archipelago® Integrated Web book gives investors the unique opportunity to view the entire ArcaEx and ArcaEdge books in addition to books made available by other market participants.


ECN Order Book feed available via NASDAQ.


Chicago Board of Trade.


Class-Based Weighted Fair Queueing.


Continuous Data Replication.


Chicago Mercantile Exchange is engaged in trading of futures contracts and derivatives.


Central Processing Unit.


Distributed Defect Tracking System.


Direct Market Access.


Data Redundancy Elimination.


Dense Wavelength Division Multiplexing.


Electronic Communication Network.


Enterprise Service Bus.


Enterprise Solutions Engineering.


FIX Adapted for Streaming.


Fibre Channel over IP.


Financial Information Exchange.


Financial Services Latency Monitoring Solution.


Financial Service Provider.


Information Lifecycle Management.


Instinet Island Book.


Internetworking Operating System.


Keyboard Video Mouse.


Low Latency Queueing.


Metro Area Network.


Multilayer Director Switch.


Diretoria de Mercados em Instrumentos Financeiros.


Message Passing Interface is an industry standard specifying a library of functions to enable the passing of messages between nodes within a parallel computing environment.


Network Attached Storage.


Network Accelerated Serverless Backup.


Network Interface Card.


Nasdaq Quotation Dissemination Service.


Order Management System.


Open Systems Interconnection.


Protocol Independent Multicast.


PIM-Source Specific Multicast.


Qualidade de serviço.


Random Access Memory.


Reuters Data Feed.


Reuters Data Feed Direct.


Remote Direct Memory Access.


Regulation National Market System.


Remote Graphics Software.


Reuters Market Data System.


RTP Control Protocol.


Real Time Protocol.


Reuters Wire Format.


Storage Area Network.


Small Computer System Interface.


Sockets Direct Protocol—Given that many modern applications are written using the sockets API, SDP can intercept the sockets at the kernel level and map these socket calls to an InfiniBand transport service that uses RDMA operations to offload data movement from the CPU to the HCA hardware.


Server Fabric Switch.


Secure Financial Transaction Infrastructure network developed to provide firms with excellent communication paths to NYSE Group, AMEX, Chicago Stock Exchange, NASDAQ, and other exchanges. It is often used for order routing.


Negociação automatizada: sistema de gerenciamento de pedidos.


Após a formatura, mudei para um apartamento pequeno e vazio na cidade. Minha avó, nunca vou esquecer, me disse que mudar para uma nova casa é como conhecer alguém pela primeira vez, você precisa escolher um quarto e torná-lo seu, ir devagar pela casa, ser educado e se apresentar, então que pode se apresentar a você.


É com a mesma lógica que eu gosto de examinar os diferentes componentes de um sistema de negociação automatizado. Existem vários "quartos" como o manipulador de dados, geradores de sinal e sistema de gerenciamento de pedidos que precisamos para entender melhor a estrutura geral.


Este artigo se concentrará no sistema de gerenciamento de pedidos, pois os pedidos são a base de qualquer estratégia e eles precisam ser inseridos e encaminhados para os destinos corretos.


Entrada de pedido.


As informações principais que um pedido precisa conter são as seguintes:


Identificador de segurança (exemplo: código de compartilhamento) Direção de pedido (Longo ou curto) Tamanho da ordem (a quantidade da transação) Limites de preço (exemplo, uma ordem de limite) Tipo de pedido (Limite, Mercado, Pegged, outro) Condições de pedido (Dia, GTC, GTC, OPG, IOC, FOK, outros) Tipo de Algoritmo usado (VWAP, POV, Momentum, Stat Arb) Transmissão de Pedido (Broker, Exchange, ECN, ATS. Usando um gateway API ou FIX)


Esta informação geralmente é inserida através de um winform pelo usuário final, mas para sistemas totalmente automatizados, nenhum winform é necessário, no entanto, em ambos os casos, recomenda-se que cada objeto de ordem seja armazenado em um banco de dados relacional para manutenção de registros.


Um desenvolvedor inteligente também criou validação nessa etapa, você precisa garantir que você verifique se há checagem de dedos, brechas de regulação / mandato e uma segunda confirmação de que o usuário deseja fazer o pedido com os detalhes da transação.


Você também pode querer construir em algumas análises pré-negociação ou análise de custos de transação se você estiver construindo um sistema onde um usuário fornece a entrada.


Roteamento de pedidos.


Uma vez que o sistema tenha capturado um pedido, ele precisa encaminhá-lo para o destino desejado, você achará que a maioria dos locais tem seu próprio protocolo proprietário para lidar com pedidos, portanto, seu componente de roteamento de pedidos precisará codificar cada ordem no formato correto.


Codificação de pedidos.


A codificação de pedidos simplesmente se refere ao formato correto em que um objeto de pedido precisa estar, para que a outra parte possa lidar com a transação. Alguns locais farão uso de uma interface de programação de aplicativo personalizada (API), no entanto, o novo padrão de facto para o envio de informações relacionadas a transações de títulos é o protocolo Financial Information Exchange (FIX). (Eu não vou expandir no FIX aqui, é um tópico inteiro por conta própria).


Transmissão de pedidos.


Uma vez codificados os pedidos, eles precisam ser enviados para o destino desejado. As informações relacionadas à ordem devem ser enviadas para o local e, em seguida, informações sobre a transação precisam ser enviadas de volta do local.


Há várias verificações no local para garantir que as informações da ordem sejam corretamente enviadas e recebidas. O local executará vários valores de cheque e comprimento da ordem para que o mecanismo FIX possa confirmar que a ordem recebida corresponda à ordem esperada transmitida.


"Quando o mecanismo FIX faz uma conexão, ele estabelece uma nova sessão. Todas as mensagens enviadas durante esta sessão são identificadas por um número de seqüência exclusivo. As mensagens devem ser entregues para que, se um motor receber uma mensagem cujo identificador está fora de ordem, ele pode emitir um pedido de reenvio. "(Barry Johnson, Algorithmic trading e DMA)


Uma vez que uma transação foi executada, o local enviará um evento Fill para o OMS contendo os detalhes da transação concluída.


Notas de aula da Quantatins EPAT.


Além disso, fui um passo adiante, incluindo minhas notas de aula do programa Quantatins EPAT na OMS. O seguinte é retirado diretamente das notas e pode ajudar a pintar uma imagem do processo:


O Gerenciador de Pedidos.


O gerenciador de pedidos gera e gerencia pedidos enviados do sistema para múltiplos destinos; Além disso, ele também executa o RMS em tempo real antes de enviar um pedido.


A entrada para o gerenciador de ordens (OM) é o sinal do gerador de sinal (seu modelo alfa ou de risco)


As saídas do OM são pedidos que precisam ser encaminhados para trocas ou outros destinos.


Ele também precisa enviar notificações de volta ao aplicativo.


Além de escrever informações de pedidos em um banco de dados.


O disparador é manipulado pelo implementador OM que mantém um estado geral de pedidos.


Faz o RMS pré-pedido (tamanho máximo da ordem, posição da carteira líquida, valor máximo do comércio, etc.)


E, em seguida, verifica a fila OM para cada destino.


Se a fila estiver livre, ele ordena ao mecanismo OM que prepare um pacote.


Esta informação é transmitida para o aplicativo e também é registrada no banco de dados.


Para os destinos do protocolo FIX, as ordens são geradas no formato FIX.


Em seguida, o roteador de pedidos determina o destino da ordem e encaminha a mensagem para a linha correta.


Espero que essas notas ajudem outros alunos lá fora, uma grande razão pela qual eu escrevo esses artigos são para que eles atuem como uma técnica de estudo para eu reter todo o material. Gostaria de dar crédito a Barry Johnson, Algorithmic Trading & amp; DMA, bem como a equipe QuantInsti que fornece o programa EPAT.


Se houver outras postagens de blog ou artigos que recomendamos que leu, adicione-o à seção de comentários abaixo.


Posts Relacionados:


3 pensamentos sobre "Automated Trading: Order Management System"


Oi, ótima postagem! Apenas uma coisa, não entendi claramente o papel do & # 8220; OM Queue Manager & # 8221 ;. Muito agradeceria muito, se pudesse, por favor, explicar um pouco mais o papel desse componente. Desde já, obrigado.


A responsabilidade do gerente da OM Queue é responsabilizar as ordens em diferentes trocas. Um excelente exemplo é nos EUA, onde existem várias bolsas de valores. Você precisará especificar quais os pedidos a serem encaminhados para a troca.


O tempo economizado por um sistema de gerenciamento de pedidos é surpreendente em comparação com sistemas de métodos antigos que possuem 24 h. atraso na informação.

No comments:

Post a Comment