Variante Baseada Na Média Estimadores De Variância Integrada


Embora o gerenciamento de portfólio não tenha mudado muito durante os 40 anos após os trabalhos seminais de Markowitz e Sharpe, o desenvolvimento de técnicas de orçamentação de risco marcou um marco importante no aprofundamento da relação entre risco e gerenciamento de ativos. A paridade de risco tornou-se um modelo financeiro popular de investimento após a crise financeira global em 2008. Hoje, os fundos de pensão e os investidores institucionais estão usando essa abordagem no desenvolvimento da indexação inteligente e a redefinição das políticas de investimento de longo prazo. Introdução à Paridade de Risco e Orçamentação fornece um tratamento atualizado desse método alternativo para a otimização de Markowitz. Ele constrói a exposição financeira a ações e commodities, considera o risco de crédito na gestão de carteiras de títulos e projeta políticas de investimento de longo prazo. A primeira parte do livro fornece uma conta teórica da otimização do portfólio e da paridade dos riscos. O autor discute a teoria da carteira moderna e oferece um guia abrangente para o orçamento de risco. Cada capítulo da segunda parte apresenta uma aplicação de paridade de risco para uma classe de ativos específica. O texto abrange a indexação de equidade baseada no risco (também chamado de beta inteligente) e mostra como usar técnicas de orçamentação de risco para gerenciar portfólios de títulos. Também explora investimentos alternativos, como commodities e hedge funds, e aplica técnicas de paridade de risco para classes de ativos múltiplos. O primeiro appendix dos livros fornece materiais técnicos sobre problemas de otimização, funções de copula e alocação dinâmica de ativos. O segundo apêndice contém 30 exercícios de tutorial. Soluções para exercícios, slides para instrutores e programas de computador Gauss para reproduzir os exemplos, tabelas e figuras de livros estão disponíveis no site dos livros. Chapman HallCRC Série de Matemática Financeira, 410 páginas Ir para o site dos livros La Gestion dActifs Quantitativo A convergência da gestão tradicional e da alternativa de gestão, parte da duna, lmergência da gestão quantitativa, dautre parte, refluxo da mutação profunda da gestão dactifs. Ce livre propõe daborder ces diffrents thmes, tous bass sur le contrle risque et les modles dallocation dactifs. Este trabalho oferece um panorama de difrances modalidades de gestão quantitativa, encaminhe a gestão indiciela a gestão de fundos de hedge em departamentos por estrutura, diversificação, perfil ou desempenho absolue. Louvrage prsente galement les diffrentes stratgies quantitativas, que são as estratgeas de replicação, deslocalização, doptions, de volatilit, darbitrage ou encore as estratégias de acompanhamento e de retorno da média. Il montre en particulier comentário loptimisation de portefeuille, lconomtrie financire et les stratgies de gestion semboitent pour anterior une stratgie quantitativa. Este livro contém muitas ilustrações e exemplos importantes sobre as classes de classes (ações, taxas de diner, mudança e matizes). Ce livre sadresse aux tudiants de master, qui veut devenir des quants et travailler dans la finance quantitative, et aux professionnels qui cherchent mieux comprendre les modles mathmatiques et statistiques utiliss dans la gestion dactifs. Editions Economica, Collection Finance, 680 páginas Tlcharger la table des matires. Les extraits du livre. Exercícios de lannexe sur les. A correcção dos exercícios. (Consulte também os programas de correspondentes de Gauss) e as aplicações numriques do livre A gestão dos riscos financeiros (duime) Esta nova data no loccasion de revoir enterment le texte, de supprimer um certo nome de desenvolvimento de que estão mais dactualit e dapporter un clairage Nouveau par rapport la crise actuelle. Elle também contém novas ilustrações e novas aplicações para conceituar melhor certos conceitos que podem aparecer em complexos. Diversos tópicos de lobos de novos desenvolvimentos, por exemplo, o risco de liquidez, os produtos exóticos, o risco de contraparte de mercado, os produtos estruturadores, a gestão do risco de março na gestão de recursos, a dependência nas unidades de Crdit et la contribution en risque. Finalmente, essa dupla é uma iniciativa que permite os conhecimentos mais vívidos. Editions Economica, Collection Finance, 560 páginas Tlcharger les programs Gauss. Les errata du livre. A tabela de maustras e a correcção dos exercícios do livre A gestão dos riscos financeiros A gestão dos riscos financeiros está em plena experiência na aplicação da garantia da supervisão e do desenvolvimento de instrumentos de segurança para o melhor financiamento. Le Comit de Ble a publi le Nouvel Accord sur le ratio international de solvabilit (Ble II) le 26 juin 2004, e a Comissão Europenne a dj adotar as diferentes propostas de acordo. Este acordo é um benefício favorável para a profissão bancária e os bancos de dados financeiros agora. As novas empresas não estão disponíveis. Mais de uma década, sobre o assiste en effet, a técnica de desenvolvimento de gerenciamento de risco e os modelos para mesurer les risques sont de plus en plus sophistiqus. Le Nouvel Accord participe dailleurs cette volution, puisbil vise dfinir un capital rglementaire plus proche du capital conomique obtenu com les modles. Leprsent ouvrage sinscrit in ces deux lines guidelines. Rglementation du risque et modlisation du risque. O ciclo de trêsiem, também é bem sucedido, o que é mais certo, é um processo de financiamento, é um processo de financiamento e de gestão, e os profissionais que pesquisam melhor a composição dos fundamentos da modificação matemática do risco. Editions Economica, Collection Gestion, 455 páginas Tlcharger os programas Gauss e as aplicações numriques do livro TSM (Time Series e Wavelets for Finance) TSM é uma biblioteca GAUSS para modelagem de séries temporais em domínio de tempo e domínio de freqüência. Ele é projetado principalmente para análise e estimativa de ARMA, processos VARX, modelos espaciais estaduais, processos fracionários e modelos estruturais. Para estudar esses modelos, ferramentas especiais foram desenvolvidas como procedimentos para simulação, análise espectral, matrizes de Hankel, etc. A estimativa é baseada no princípio da máxima verossimilhança ou no Método gerencial de Momentos e restrições lineares podem ser facilmente impostas. Ele também contém vários métodos de filtragem (Filtro Kalman, FLS e GFLS) e vários procedimentos para análise Time-Frequency do sinal 1-D (análise wavelet e análise de pacotes wavelet). Código fonte: 300 Ko, código de exemplos: 390 Ko, Manual: 230 páginas. Descrição do TSM na página da Gauss Aptech Systems Download Exemplos do TSM Introdução a programação em Gauss 1995 Design Global, 660 páginas T. Roncalli e G. Weisang À medida que os reguladores em todo o mundo progridem para reformas prudenciais do sistema financeiro global para abordar a questão do risco sistêmico, O alcance abrangente da tarefa toca áreas e atores dos mercados financeiros que normalmente não foram vistos como sistematicamente importantes antes. A idéia de que o setor de gerenciamento de ativos pode contribuir para o risco sistêmico é nova e garante um exame detalhado para moldar políticas adequadas. Neste artigo, depois de analisar a definição de risco sistêmico e como os bancos e seguros sistemicamente importantes são designados, analisamos as atividades do setor de gerenciamento de ativos e as formas como eles podem contribuir para a transmissão do risco sistêmico. Em seguida, examinamos detalhadamente a proposta de FSB-IOSCO, de março de 2015, para uma metodologia de avaliação para a identificação de instituições financeiras não-bancárias não institucionais de importância sistêmica. Comparamos e discutimos com dados empíricos como as feiras de metodologia contra o que a literatura e o rescaldo da crise de 2007-2008 revelam sobre o papel do setor de gestão de ativos em contribuir para o risco sistêmico. Achamos que a proposta atual em parte não consegue identificar adequadamente os candidatos naturais para a designação sistemicamente importante e, talvez, confunde grandes instituições com instituições sistémicamente estratégicas que dão muita importância à perda de riqueza em relação ao potencial de ruptura econômica real e deslocamento do mercado. Finalmente, pedimos uma abordagem mais robusta e sensível ao risco para identificar instituições financeiras de importância sistêmica. Risco sistêmico, SIFI, gerentes de ativos, proprietários de ativos, interconexão, risco de liquidez, risco de reputação, risco de negócios, risco de crédito de contraparte, risco de mercado, período de liquidação, fundos indexados, fundos do mercado monetário, fundos negociados em bolsa, hedge funds. Faça o download do arquivo PDF J-C. Richard e T. Roncalli Neste artigo, consideramos uma nova estrutura para entender as carteiras baseadas em risco (GMV, EW, ERC e MDP). Essa estrutura é semelhante ao modelo de variância mínima restrita de Jurczenko et al. (2013), mas com outra definição da restrição de diversificação. O problema de otimização correspondente pode então ser resolvido usando o algoritmo CCD. Isso nos permite ampliar os resultados de Cazalet et al. (2014) e para entender melhor as relações de trade-off entre redução de volatilidade, erro de rastreamento e diversificação de risco. Em particular, mostramos que as carteiras beta inteligentes diferem porque eles implicitamente visam diferentes níveis de redução de volatilidade. Também desenvolvemos novas estratégias beta inteligentes, gerenciando o nível de redução da volatilidade e mostrando que apresentam propriedades atraentes em comparação com as tradicionais carteiras baseadas em risco. Smart beta, alocação baseada em risco, portfólio de variância mínima, GMV, EW, ERC, MDP, otimização de portfólio, algoritmo CCD. Baixe o arquivo PDF Z. Cazalet e T. Roncalli O modelo de precificação de capital próprio (CAPM) desenvolvido por Sharpe (1964) é o ponto de partida para a teoria de preços de arbitragem (APT). Ele usa um único fator de risco para modelar o prêmio de risco de uma classe de ativos. No entanto, o CAPM tem sido objeto de pesquisas importantes, que evidenciaram numerosas contradições empíricas. Com base na teoria APT proposta por Ross (1976), Fama e French (1992) e Carhart (1997) introduzem outros modelos de fatores comuns para capturar novos prémios de risco. Por exemplo, eles definem fatores de risco patrimoniais, como mercado, valor, tamanho e impulso. Nos últimos anos, surgiu um novo quadro baseado nesta literatura para definir a alocação estratégica de ativos. Da mesma forma, os provedores de índice e os gerentes de ativos agora oferecem a oportunidade de investir nesses fatores de risco através de índices de fatores e fundos mútuos. Essas duas abordagens levaram a um novo paradigma chamado fator de investimento (Ang, 2014). Factor investing parece resolver alguns dos problemas de gerenciamento de portfólio que surgiram no passado, em particular para os investidores de longo prazo. No entanto, surgem algumas questões, especialmente com o número de fatores de risco que crescem nos últimos anos (Cochrane, 2011). O que é um fator de risco Todos os fatores de risco são bem-remunerados Qual é o seu nível de estabilidade e robustez Como devemos alocar entre eles O principal objetivo deste trabalho é compreender e analisar a abordagem de investidores fatoris para responder a essas questões. Factor de investimento, risco premium, CAPM, modelo de fator de risco, anomalia, tamanho, valor, impulso, volatilidade, risco idiossincrático, liquidez, carry, qualidade, fundos mútuos, hedge funds, beta alternativa, alocação estratégica de ativos. Baixe o arquivo PDF A paridade de risco é um método de alocação usado para construir portfólios diversificados que não dependem de qualquer hipótese de retornos esperados, colocando assim o gerenciamento de risco no centro da estratégia. Isso explica por que a paridade de risco tornou-se um modelo de investimento popular após a crise financeira global em 2008. No entanto, a paridade de risco também foi criticada porque se concentra na gestão da concentração de risco em vez do desempenho do portfólio e, portanto, é vista como sendo mais próxima do gerenciamento passivo do que ativa gestão. Neste artigo, mostramos como introduzir os pressupostos dos retornos esperados nas carteiras de paridade de risco. Para fazer isso, consideramos uma medida de risco generalizada que leva em consideração tanto o retorno quanto a volatilidade do portfólio. No entanto, o trade-off entre contribuições de desempenho e volatilidade cria alguma dificuldade, enquanto o problema de orçamentação de risco deve ser claramente definido. Depois de derivar as propriedades teóricas de tais carteiras de orçamento, aplicamos este novo modelo à alocação de ativos. Em primeiro lugar, consideramos a política de investimento a longo prazo e a determinação da alocação estratégica de ativos. Consideramos a alocação dinâmica e mostramos como criar fundos de paridade de risco que dependem dos retornos esperados. Paridade de risco, orçamento de risco, retornos esperados, portfólio de ERC, valor em risco, déficit esperado, gerenciamento ativo, alocação tática de ativos, alocação estratégica de ativos. Faça o download do arquivo PDF T. Roncalli e B. Zheng A liquidez dos fundos negociados em bolsa é de extrema importância para os reguladores, investidores e provedores. No entanto, o estudo da liquidez ainda está em sua infância. Neste trabalho, mostramos alguns fatos estilizados de estatísticas de liquidez (disseminação diária no mercado, volume comercial, etc.). Propomos também uma nova medida de liquidez que combine estas estatísticas. Nesse caso, a liquidez é uma função de poder do spread, onde os parâmetros são determinados pelos volumes de negociação reais. Também estudamos a relação entre a liquidez dos ETF e a liquidez do índice subjacente. Mostramos que estão correlacionados diariamente, mas não em termos de freqüência intradia. Também definimos uma medida de melhoria de liquidez e aplicamos-na ao índice EURO STOXX 50. Fundo negociado em bolsa, liquidez, spread, volume de negociação, livro de encomendas, melhoria de liquidez. Faça o download do arquivo PDF T. Roncalli e G. Weisang T. Griveau-Billion, J-C. Richard e T. Roncalli Neste artigo, propomos um algoritmo cíclico de descendência de coordenadas (CCD) para resolver problemas de paridade de alto risco dimensional. Mostramos que esse algoritmo converge e é muito rápido mesmo com grandes matrizes de covariância (n 500). A comparação com os algoritmos existentes também mostra que é um dos algoritmos mais eficientes. Paridade de risco, orçamentação de risco, portfólio de ERC, algoritmo de descendência de coordenadas cíclicas, algoritmo de SQP, algoritmo de Jacobi, algoritmo de Newton, algoritmo de Nesterov. Baixe o arquivo PDF Z. Cazalet, P. Grison e T. Roncalli Neste artigo, consideramos a indexação beta inteligente, que é uma alternativa à indexação de capitalização (CW). Em particular, enfocamos a indexação baseada em risco (RB), cujo objetivo é capturar o prêmio de risco de ações de forma mais efetiva. Para conseguir isso, são construídas carteiras que são mais diversificadas e menos voláteis que as carteiras de CW. No entanto, as carteiras de RB são menos líquidas do que as carteiras de CW por construção. Além disso, eles também apresentam dois riscos em termos de gerenciamento passivo: rastreamento de risco de diferença e risco de erro de rastreamento. Os investidores beta inteligentes então têm que descobrir o trade-off entre diversificação, volatilidade, liquidez e erro de rastreamento. Este artigo examina os relacionamentos de trade-off. Ele também define os componentes de retorno dos índices beta inteligentes. Smart beta, indexação baseada em risco, portfólio de variância mínima, paridade de risco, carteira igualmente ponderada, portfólio de contribuição de risco igual, diversificação, baixa anomalia beta, baixa anomalia de volatilidade, erro de rastreamento, liquidez. Baixe o arquivo PDF B. Bruder, N. Gaussel, J-C. Richard e T. Roncalli A teoria da otimização de variância média (MVO) de Markowitz (1952) para seleção de portfólio é um dos métodos mais importantes utilizados nas finanças quantitativas. Essa alocação de portfólio precisa de dois parâmetros de entrada, o vetor de retornos esperados e a matriz de covariância dos retornos de ativos. Este processo leva a erros de estimativa, que podem ter um grande impacto nos pesos do portfólio. Neste artigo, revisamos diferentes métodos que visam estabilizar a alocação de variância média. Em particular, consideramos os resultados recentes da teoria da aprendizagem mecânica para obter uma alocação mais robusta. Otimização de portfólio, gerenciamento ativo, erro de estimativa, estimador de encolhimento, métodos de reescalonamento, formulação eletrônica, restrições de norma, regressão de Lasso, regressão de cume, matriz de informações, portfólio de cobertura, sparsity. Baixe o arquivo PDF M. Hassine e T. Roncalli A seleção do fundo é uma questão importante para os investidores. Este tópico gerou abundante literatura acadêmica. No entanto, na maioria das vezes, esses trabalhos dizem respeito apenas a uma gestão ativa, enquanto muitos investidores, como os investidores institucionais, preferem investir em fundos indexados. As ferramentas desenvolvidas no caso de gerenciamento ativo também não são adequadas para avaliar o desempenho desses fundos indexados. Isso explica por que os índices de informação geralmente são usados ​​para comparar o desempenho de fundos passivos. No entanto, mostramos que esta medida não é pertinente, especialmente quando a volatilidade do erro de rastreamento do fundo do índice é pequena. O objetivo de um fundo negociado em bolsa (ETF) é precisamente oferecer um veículo de investimento que apresenta um erro de rastreamento muito baixo em relação ao seu benchmark. Neste artigo, propomos uma medida de desempenho baseada no quadro de valor em risco, que está perfeitamente adaptado à gestão passiva e aos ETFs. Dependendo de três parâmetros (diferença de desempenho, volatilidade de erro de rastreamento e spread de liquidez), esta medida de eficiência é fácil de calcular e pode ajudar os investidores em seu processo de seleção de fundos. Nós fornecemos alguns exemplos e mostramos como a liquidez é mais uma questão para os investidores institucionais do que os investidores de varejo. Gerenciamento passivo, fundo índice, ETF, índice de informação, erro de rastreamento, liquidez, spread, valor em risco. Faça o download do arquivo PDF T. Roncalli e G. Weisang T. Roncalli e G. Weisang A construção da carteira e o orçamento de risco são o foco de muitos estudos realizados por acadêmicos e profissionais. Em particular, a diversificação tem muito interesse e foi definida de forma muito diferente. Neste artigo, analisamos um método para alcançar a diversificação de portfólio com base na decomposição do risco de carteiras em contribuições de fator de risco. Primeiro, expomos a relação entre fator de risco e contribuições de ativos. Em segundo lugar, formulamos o problema da diversificação em termos de fatores de risco como um programa de otimização. Finalmente, ilustramos nossa metodologia com alguns exemplos e backtests da vida real, que são: orçamentar o risco de fatores de equidade Fama-French, maximizar a diversificação de uma carteira de fundos de hedge e construir uma alocação estratégica de ativos com base em fatores econômicos. Paridade de risco, orçamentação de risco, modelo de fatores, portfólio de ERC, diversificação, concentração, modelo Fama-francês, alocação de hedge funds, alocação estratégica de ativos. Faça o download do arquivo PDF B. Bruder, L. Culerier e T. Roncalli Vários anos atrás, o conceito de fundos de data-alvo emergiu para complementar os fundos tradicionais equilibrados em planos de pensão de contribuição definida. A principal idéia é delegar a alocação dinâmica em relação à data de aposentadoria de indivíduos para o gerente de portfólio. Devido ao seu horizonte de longo prazo, um fundo de data-alvo é único e não pode ser comparado a um fundo mútuo. Além disso, o objetivo do indivíduo é contribuir ao longo de sua vida profissional investindo uma parte de seus rendimentos para maximizar seus benefícios de pensão. O objetivo principal deste artigo é analisar e entender a alocação dinâmica em um quadro de fundo de data-alvo. Mostramos que a exposição ideal no portfólio de risco varia ao longo do tempo e é muito sensível aos parâmetros do mercado e dos investidores. Em seguida, deduzimos algumas orientações práticas para melhor conceber fundos de data-alvo para o setor de gerenciamento de ativos. Fundo de data-alvo, fundo do ciclo de vida, sistema de aposentadoria, alocação dinâmica de ativos, controle ótimo estocástico, portfólio de mercado, aversão ao risco, política de mix de ativos estoque. Faça o download do arquivo PDF Basileia II, medição de risco de crédito, gerenciamento de portfólio de crédito, problemas de inconsistência no tempo. Faça o download do arquivo PDF N. Baud, A. Frachot e T. Roncalli 01 de dezembro de 2002 Intensas reflexões estão sendo conduzidas no momento em relação à maneira de reunir dados heterogêneos provenientes de sistemas internos dos bancos e bancos de dados agrupados na indústria. Nós propomos aqui uma metodologia sólida. Como se baseia no princípio da máxima verossimilhança, é, portanto, estatisticamente rigoroso e deve ser aceito pelos supervisores. Acreditamos que ele resolve a maior parte dos problemas de heterogeneidade de dados e dimensionamento. Risco operacional, carga de capital, limiar, distribuição condicional, máxima verossimilhança. Baixe o arquivo PDF N. Baud, A. Frachot e T. Roncalli É amplamente reconhecido que a calibração em dados internos pode não ser suficiente para calcular uma carga de capital precisa contra o risco operacional. No entanto, a associação de dados externos e internos leva a taxas de capital inaceitáveis, pois os dados externos geralmente são distorcidos para grandes perdas. Em um artigo anterior, desenvolvemos uma metodologia estatística para garantir que a fusão de dados internos e externos leva a estimativas imparciais da distribuição de perdas. Este artigo mostra que esta metodologia é aplicável no gerenciamento de risco da vida real e que permite reunir dados internos e externos de forma apropriada. O artigo está organizado da seguinte forma. Primeiro, discutimos como os bancos de dados externos foram projetados e como seu design pode resultar em falhas estatísticas. Em seguida, desenvolvemos um modelo para o processo de geração de dados que está subjacente a dados externos. Neste modelo, o viés vem simplesmente do fato de que os dados externos são truncados acima de um limite específico, enquanto este limiar pode ser constante, mas conhecido, ou constante, mas desconhecido, ou finalmente estocástico. Nós descrevemos o raciocínio por trás desses três casos e nós fornecemos para cada um deles uma metodologia para contornar o viés relacionado. Em cada caso, são dadas simulações numéricas e evidências práticas. Risco operacional, dados internos, dados externos, dados do consórcio, limiar. Faça o download do arquivo PDF N. Baud, A. Frachot e T. Roncalli Slides da conferência Seminarios de Matemática Financeira, Instituto MEFF - Risklab. Madrid. Risco operacional, LDA, dados internos, dados externos, limiar implícito. Baixe o arquivo PDF J-F. Jouanin, G. Riboulet e T. Roncalli 31 de janeiro de 2002 Versão não técnica do documento Dependência de modelagem para derivativos de crédito com copulas. Copulas, modelos de intensidade, pontuação de diversidade Moodys. Baixe o arquivo PDF A. Frachot e T. Roncalli Januray 29, 2002 A Abordagem da distribuição de perdas tem muitas características atraentes, uma vez que se espera que seja muito mais sensível ao risco do que qualquer outro método tomado em consideração pelas últimas propostas do Comitê de Basileia. Assim, espera-se que esta abordagem forneça taxas de capital significativamente mais baixas para os bancos cujo histórico é particularmente bom em relação às suas exposições e comparado com os benchmarks da indústria. Infelizmente, a LDA quando calibrada apenas em dados internos está longe de ser satisfatória a partir de uma perspectiva reguladora, pois provavelmente poderá subestimar a carga de capital necessária. Isso acontece por dois motivos. Primeiro, se um banco tiver um número de eventos menor do que a média, ele se beneficiará de uma carga de capital inferior à média, embora seu bom histórico aconteça por acaso e não resulte de práticas de gerenciamento de risco melhores do que médias . Como conseqüência, a LDA é aceitável desde que os dados de freqüência interna sejam temperados por referências da indústria. Como tal, levanta imediatamente a questão de como lidar com dados de freqüência interna e benchmarks externos. Este artigo propõe uma solução baseada na teoria da credibilidade que é amplamente utilizada no setor de seguros para enfrentar problemas análogos. Como resultado, mostramos como fazer o ajuste estatístico para temperar as informações transmitidas pelos dados de freqüência interna com o uso de referências externas. Da mesma forma, se a calibração dos parâmetros de gravidade ignora os dados externos, a distribuição da gravidade provavelmente será tendenciosa para perdas de baixa gravidade, uma vez que as perdas internas são tipicamente inferiores às registradas em bancos de dados industriais. Novamente, de uma perspectiva reguladora, a LDA não pode ser aceita, a menos que os dados internos e externos sejam mesclados e o banco de dados mesclado seja usado no processo de calibração. Aqui novamente, levanta o problema em relação à melhor forma de mesclar esses dados. Obviamente, isso não pode ser feito sem nenhum cuidado, pois se as bases de dados internas são alimentadas diretamente com dados externos, as distribuições de severidade serão fortemente tendenciosas para perdas de alta gravidade. Este artigo propõe também um ajuste estatístico para tornar comparáveis ​​bancos de dados internos e externos entre si, a fim de permitir uma fusão segura e imparcial. Risco operacional, LDA, dados internos, dados externos, teoria da credibilidade. Baixe o arquivo PDF 26 de outubro de 2001 Apresentações da conferência Sminaire de Mathématiques e Finanças Louis Bachelier, Instituto Henri Poincaré. Copulas, derivativos de crédito, opções multi-ativos. Faça o download do arquivo PDF S. Coutant, V. Durrleman, G. Rapuch e T. Roncalli 5 de setembro de 2001 Neste artigo, usamos copulas para definir distribuições multivariadas neutras em risco. Podemos então derivar fórmulas de preços gerais para opções de ativos múltiplos e melhores limites possíveis com sorrisos de volatilidade dados. Finalmente, então, aplicamos o framework copula para definir indicadores prospectivos da função de dependência entre os retornos de ativos. Copulas, distribuição neutra ao risco, mudança de numerário, preço de opções, RND multivariada implícita. Baixe o arquivo PDF J-F. Jouanin, G. Rapuch, G. Riboulet e T. Roncalli Neste artigo, abordamos o problema de incorporar a dependência padrão em modelos de risco de crédito baseados em intensidade. Seguindo os trabalhos de Li 2000, Giesecke 2001 e Schonbucher e Schubert 2001, usamos copulas para modelar a distribuição conjunta dos tempos padrão. São consideradas duas abordagens. O primeiro consiste em modelar a função de sobrevivência conjunta diretamente com copulas de sobrevivência de tempos padrão, enquanto que na segunda abordagem, as copulas são usadas para correlacionar as variáveis ​​aleatórias exponenciais do limiar. Comparamos essas duas abordagens e damos alguns resultados sobre seus relacionamentos. Em seguida, tentamos algumas simulações de produtos simples, como primeiro a padrões. Finalmente, discutimos a questão da calibração de acordo com a pontuação de diversidade de Moodys. Copulas, modelos de intensidade, processos de Cox, processos de Bessel, pontuação de diversidade de Moodys. Baixe o arquivo PDF G. Rapuch e T. Roncalli Nesta breve nota, consideramos alguns problemas de preços de opções de dois ativos. Em particular, investigamos a relação entre preços de opções e o parâmetro de correlação no modelo de Black-Scholes. Então, consideramos o caso geral no quadro da construção de copula de distribuições neutras em risco. Esta extensão envolve resultados na ordem supermodular aplicada à representação de Feynman-Kac. Mostramos que poderia ser visto como uma generalização de um princípio máximo para a PDE parabólica. Copulas, opções de dois ativos (Spread, Basket, Min, Max, BestOf, WorstOf), ordem supermodular, ordem de concordância, limites de Fritch, representação de Feynman-Kac, princípio máximo, PDE parabólica. Baixe o arquivo PDF Slides da conferência Statistics 2001, Concordia University, Montral, Canadá. Copulas, hipótese gaussiana, risco operacional, copula neutra em risco, modelo Heston. Faça o download do arquivo PDF P. Georges, A-G. Lamy, E. Nicolas, G. Quibel e T. Roncalli Neste artigo, analisamos o uso de copulas para modelagem de sobrevivência multivariada. Em particular, estudamos as propriedades das copulas de sobrevivência e discutimos as medidas de dependência associadas a esta construção. Então, consideramos o problema dos riscos concorrentes. Derivamos a distribuição das estatísticas de tempo e ordem de falha. Depois de ter apresentado uma inferência estatística, finalmente fornecemos aplicações financeiras que dizem respeito ao valor do tempo de vida (modelos de atrito), o vínculo entre o padrão, pré-pagamento e vida credora, a medida do risco para uma carteira de crédito e o preço dos derivativos de crédito. Copula de sobrevivência, modelo de fragilidade, conceitos de envelhecimento, riscos concorrentes, tempo de falha, estatísticas de pedidos, pagamento antecipado, medida de risco de crédito, modo padrão, inadimplência correlacionada, carga de capital de risco, postagem digital padrão, permuta de inadimplência de crédito, primeiro a padrão. Baixe o arquivo PDF Slides do seminário Modelos estocásticos em finanças, Ecole Polytechnique, Paris, 23042001. Copulas, regressão quantile, markov copulas, risco de crédito, convergência uniforme, operações em funções de distribuição. Faça o download do arquivo PDF A. Frachot, P. Georges e T. Roncalli Neste artigo, exploramos a Abordagem de Distribuição de Perdas (LDA) para calcular a carga de capital de um banco para risco operacional, onde a LDA se refere a métodos estatísticos atuais para modelar a distribuição de perdas . Nessa estrutura, a carga de capital é calculada usando uma medida de Valor em Risco. Na primeira parte do documento, damos uma descrição detalhada da implementação da LDA e explicamos como ela poderia ser usada para alocação de capital econômico. Em particular, mostramos como calcular a distribuição de perda agregada, combinando a distribuição da gravidade da perda e a distribuição da freqüência de perda, como calcular o capital total em risco usando copulas, como controlar a parte superior da distribuição da gravidade da perda com a ordem Estatisticas. Na segunda parte do trabalho, comparamos a LDA com a abordagem de medição interna (IMA) proposta pelo Comitê de Basileia sobre Supervisão Bancária para calcular o capital regulatório para o risco operacional. LDA e IMA são modelos de medição interna de baixo para cima que aparentemente são diferentes. No entanto, nós poderíamos mapear a LDA no IMA e dar algumas justificativas sobre a escolha feita pelos reguladores para definir o IMA. Finalmente, fornecemos maneiras alternativas de mapear ambos os métodos juntos. Risco operacional, perda agregada, distribuição composta, severidade de perdas, perda de freqüência, algoritmo Panjer, Capital-em-Risco, alocação de capital econômico, estatísticas de pedidos, LDA, IMA, RPI, copulas. Baixe o arquivo PDF V. Durrleman, A. Nikeghbali e T. Roncalli Slides para a Conferência Internacional de Finanças, Hammam-Sousse, Tunísia, 03172001. Copulas, função de dependência de risco, copulas singulares, pontos extremos, agregação quantile, opção de propagação. Faça o download do arquivo em PDF 26 de janeiro de 2001 Apresentações do seminário Métodos estatísticos de gestão de riscos integrados organizados pela Frontiers in Finance. Copulas, preço de opção 2D, processos markov, risco de crédito, CreditMetrics, CreditRisk, primeiro a padrão. Baixe o arquivo PDF J. Bodeau, G. Riboulet e T. Roncalli 15 de dezembro de 2000 Neste artigo, consideramos redes não-uniformes para resolver PDE. Nós derivamos o algoritmo theta-scheme com base em métodos de diferenças finitas e mostra sua consistência. Em seguida, aplicamos isso a diferentes problemas de preços de opções. Esquema Theta, grades não-uniformes, grades temporais, interpolação de spline cúbica, opção européia, opção americana, opção de barreira. Download the PDF file Download the corresponding GAUSS library November 16, 2000 Slides of the seminar Financial Applications of Copulas. Copulas, financial applications, risk management, statistical modelling, probabilistic metric spaces, markov operators, quasi-copulas. Download the PDF file V. Durrleman, A. Nikeghbali and T. Roncalli November 23, 2000 In this paper, we consider the open question on Spearmans rho and Kendalls tau of Nelsen 1991. Using a technical hypothesis, we can answer in the positive. One question remains open: how can we understand the technical hypothesis Because this hypothesis is not right in general, we could find some pathological cases which contradict Nelsens conjecture. Spearmans rho, Kendalls tau, cubic copula. Download the PDF file E. Bouy, V. Durrleman, A. Nikeghbali G. Riboulet and T. Roncalli March 23, 2001 (First version: November 10, 2000) In this paper, we show that copulas are a very powerful tool for risk management since it fulfills one of its main goals: the modelling of dependence between the individual risks. That is why this approach is an open field for risk. Copulas, market risk, credit risk, operational risk. Download the PDF file A. Costinot, T. Roncalli and J. Teiumlletche October 24, 2000 We consider the problem of modelling the dependence between financial markets. In financial economics, the classical tool is the Pearson (or linear correlation) coefficient to compare the dependence structure. We show that this coefficient does not give a precise information on the dependence structure. Instead, we propose a conceptual framework based on copulas. Two applications are proposed. The first one concerns the study of extreme dependence between international equity markets. The second one concerns the analysis of the East Asian crisis. Linear correlation, extreme value theory, quantile regression, concordance order, Deheuvels copula, contagion, Asian crisis. Download the PDF file A. Costinot, G. Riboulet et T. Roncalli September 15, 2000 Les banques ont aujourdhui la possibilit de mettre en place un modle interne de risque de march. Lune des composantes indispensables de ce modle est la cration dun programme de stress testing. Cet article prsente un outil potentiel pour la construction dun tel programme. la thorie des valeurs extrmes. Aprs avoir rappel la rglementation propre au stress testing et les principaux rsultats de cette thorie, nous montrons comment les utiliser pour construire des scnarios unidimensionnels, multidimensionnels et enfin pour quantifier des scnarios de crise labors partir de mthodologies diffrentes. Aux considrations mthodologiques sont adjoints les rsultats des simulations que nous avons ralises sur diffrentes sries financires. Copules, fonction de dpendance de queue stable, thorie des valeurs extrmes, stress testing. Tlcharger le fichier PDF V. Durrleman, A. Nikeghbali and T. Roncalli September 10, 2000 In this paper, we consider the problem of bounds for distribution convolutions and we present some applications to risk management. We show that the upper Frchet bound is not always the more risky dependence structure. It is in contradiction with the belief in finance that maximal risk corresponds to the case where the random variables are comonotonic. Triangle functions, dependency bounds, infimal, supremal and sigma-convolutions, Makarov inequalities, Value-at-Risk, square root rule, Dallaglio problem, Kantorovich distance. Download the PDF file V. Durrleman, A. Nikeghbali and T. Roncalli In this paper, we study the approximation procedures introduced by Li, Mikusinski, Sherwood and Taylor 1997. We show that there exists a bijection between the set of the discretized copulas and the set of the doubly stochastic matrices. For the Bernstein and checkerboard approximations, we then provide analytical formulas for the Kendalls tau and Spearmans rho concordance measures. Moreover, we demonstrate that these approximations do not exhibit tail dependences. Finally, we consider the general case of approximations induced by partitions of unity. Moreover, we show that the set of copulas induced by partition of unity is a Markov sub-algebra with respect to the - product of Darsow, Nguyen and Olsen 1992. Doubly stochastic matrices, Bernstein polynomials approximation, checkerboard copula, partitions of unity, Markov algebras, product of copulas. Download the PDF file V. Durrleman, A. Nikeghbali and T. Roncalli In this paper, we give a few methods for the choice of copulas in financial modelling. Maximum likelihood method, inference for margins, CML method, point estimator, non parametric estimation, Deheuvels copula, copula approximation, discrete L norm. Download the PDF file V. Durrleman, A. Nikeghbali and T. Roncalli We study how copulas properties are modified after some suitable transformations. In particular, we show that using appropriate transformations permits to fit the dependence structure in a better way. gamma-transformation, Kendalls tau, Spearmans rho, upper tail dependence. Download the PDF file V. Durrleman, A. Kurpiel, G. Riboulet and T. Roncalli In this paper, we consider 2D option pricing. Most of the problems come from the fact that only few closed-form formulas are available. Numerical algorithms are also necessary to compute option prices. This paper examines some topics on this subject. Numerical integration methods, Gauss quadratures, Monte Carlo, Quasi Monte Carlo, Sobol sequences, Faure sequences, two-dimensional PDE, Hopscotch, LOD, ADI, MOL, Stochastic volatility model, Malliavin calculus. Paper presented at the 17th International Conference in Finance organized by the French Finance Association, Paris (June 28, 2000). Download the PDF file E. Bouy, V. Durrleman, A. Nikeghbali, G. Riboulet and T. Roncalli Copulas are a general tool to construct multivariate distributions and to investigate dependence structure between random variables. However, the concept of copula is not popular in Finance. In this paper, we show that copulas can be extensively used to solve many financial problems. Multivariate distribution, dependence structure, concordance measures, scoring, Markov processes, risk management, extreme value theory, stress testing, operational risk, market risk, credit risk. Paper presented at the 17th International Conference in Finance organized by the French Finance Association, Paris (June 27, 2000) and at First World Congress of the Bachelier Finance Society (June 29, 2000). Download the PDF file N. Baud, P. Demey, D. Jacomy, G. Riboulet et T. Roncalli Comme son nom lindique, le Plan Epargne Logement est un produit dpargne qui permet dacqurir des droits prts pour financer un ventuel achat immobilier. Pour que les tablissements financiers et les particuliers y trouvent un intrt commun, le lgislateur a mis en place un systme de prime pendant la phase dpargne. Celui-ci est peru comme un systme incitatif pour le particulier et doit permettre dassurer la rentabilit du produit pour la banque. Une note rdige par le Trsor en 1996 conclut la rentabilit du PEL pour les banques. Largument repose sur le fait que les pertes (ventuelles) supportes par la banque pendant la phase demprunt sont largement compenses par les revenus de la phase dpargne. En rponse cette note lAFB sest attache montrer le contraire en incluant les coucircts lis aux risques de taux (Note de lAFB du 16121996). Il nest donc pas du tout certain que le systme mis en place soit rentable pour ltablissement financier. Dautant plus que le Plan Epargne Logement est un produit financier relativement complexe et que celui-ci contient diffrentes options caches. Le calcul de sa rentabilit est donc beaucoup plus difficile que ceux prsents par le Trsor ou lAFB. Cest pourquoi le GRO a tent de modliser les options caches du PEL, de les valoriser et de calculer la rentabilit finale de ce produit. Plan dpargne logement, option cache de conversion, option amricaine, problme de contrle optimal. Tlcharger le fichier PDF N. Baud, A. Frachot, P. Igigabel, P. Martineu and T. Roncalli December 1, 1999 Capital allocation within a bank is getting more important as the regulatory requirements are moving towards economic-based measures of risk. Banks are urged to build sound internal measures of credit and market risks for all their activities. Internal models for credit, market and operational risks are fundamental for bank capital allocation in a bottom-up approach. But this approach has to be completed by a top-down approach in order to give to bank managers a more comprehensive (but less detailed) vision of the allocation efficiency. From a top-down viewpoint, we are considering the different business lines of a bank as assets. Then the capital has to be allocated in order to balance a portfolio in an optimal way. In this respect, a bank has to evaluate not only the expected return and the risk of every business line, but also the correlation matrix of these business lines returns. If a bank usually has a good knowledge of its expected returns and risks, the problem is more complex in the case of the correlation matrix: to cope with the lack of internal data and information, we develop an approach based on a Market Factor Model and estimate an implied correlation matrix using the returns of a panel of banks. The allocation problem is not exactly the problem a bank is confronted to. It more precisely deals with capital reallocation. Moving from an allocation to a new one generates costs that have to be taken into account to ensure that the new allocation is better than the former one. That is why reallocation signals are more interesting: they do not point out the optimal allocation but they allow the implementation of a dynamic policy that leads to an optimal situation. Capital allocation, top-down, bottom-up, factor model, optimisation problem, Lagrange multipliers. Paper presented at Les petits djeuners de la Finance, Paris (January 27, 2000). Download the PDF file January 13, 1999 In this paper, we consider the use of interest rate contingent claims as indicators for the monetary policy. We analyze two approches: one based on the term structure of zero bonds and another based on interest-rate option derivatives. We show how traditional tools based on the Black framework could be biased to build indicators for monetary policy. In fact, the second approach could not be viewed as an alternative approach, but as a complementary approach of the term structure approach. Yield curve, Hull-White trinomial model, monetary policy. Download the PDF file A. Kurpiel and T. Roncalli December 8, 1998 The purpose of this paper is to analyse different implications of the stochastic behavior of asset prices volatilities for option hedging purposes. We present a simple stochastic volatility model for option pricing and illustrate its consistency with financial stylized facts. Then, assuming a stochastic volatility environment, we study the accuracy of Black and Scholes implied volatility-based hedging. More precisely, we analyse the hedging ratios biases and investigate different hedging schemes in a dynamic setting. option hedging, stochastic volatility, Heston model, delta, gamma, vega. Download the PDF file A. Kurpiel and T. Roncalli November 17, 1998 In this paper, we consider Hopscotch methods for solving two-state financial models. We first derive a solution algorithm for two-dimensional partial differential equations with mixed boundary conditions. We then consider a number of financial applications including stochastic volatility option pricing, term structure modelling with two states and elliptic irreversible investment problems. Two-dimensional PDE, Hopscotch method, parabolic financial models, elliptic problems. Download the PDF file Download the corresponding GAUSS library Thse de lUniversit de Montesqieu-Bordeaux IV. Structure par terme, taux zro, taux forward, mthode de Nelson-Siegel, modles factoriels, processus de diffusion, modle de Black-Derman-Toy, modle de Hull-White. Tlcharger le fichier PDF Tlcharger la bibliothque Gauss J-S. Pentecte, T. Roncalli et M-A. Sngas 1998, LARE, Universit de Bordeaux IV J-S. Pentecte and T. Roncalli 1997, LARE, University of Bordeaux IVEViews 9.5 Feature List EViews offers a extensive array of powerful features for data handling, statistics and econometric analysis, forecasting and simulation, data presentation, and programming. While we cant possibly list everything, the following list offers a glimpse at the important EViews features: Basic Data Handling Numeric, alphanumeric (string), and date series value labels. Extensive library of operators and statistical, mathematical, date and string functions. Powerful language for expression handling and transforming existing data using operators and functions. Samples and sample objects facilitate processing on subsets of data. Support for complex data structures including regular dated data, irregular dated data, cross-section data with observation identifiers, dated, and undated panel data. Multi-page workfiles. EViews native, disk-based databases provide powerful query features and integration with EViews workfiles. Convert data between EViews and various spreadsheet, statistical, and database formats, including (but not limited to): Microsoft Access and Excel files (including. XSLX and. XLSM), Gauss Dataset files, SAS Transport files, SPSS native and portable files, Stata files, raw formatted ASCII text or binary files, HTML, or ODBC databases and queries (ODBC support is provided only in the Enterprise Edition). OLE support for linking EViews output, including tables and graphs, to other packages, including Microsoft Excel, Word and Powerpoint. OLEDB support for reading EViews workfiles and databases using OLEDB-aware clients or custom programs. Support for FRED (Federal Reserve Economic Data) databases. Enterprise Edition support for Global Insight DRIPro and DRIBase, Haver Analytics DLX, FAME, EcoWin, Bloomberg, EIA, CEIC, Datastream, FactSet, and Moodys Economy databases. The EViews Microsoft Excel Add-in allows you to link or import data from EViews workfiles and databases from within Excel. Drag-and-drop support for reading data simply drop files into EViews for automatic conversion and linking of foreign data into EViews workfile format. Powerful tools for creating new workfile pages from values and dates in existing series. Match merge, join, append, subset, resize, sort, and reshape (stack and unstack) workfiles. Easy-to-use automatic frequency conversion when copying or linking data between pages of different frequency. Frequency conversion and match merging support dynamic updating whenever underlying data change. Auto-updating formula series that are automatically recalculated whenever underlying data change. Easy-to-use frequency conversion: simply copy or link data between pages of different frequency. Tools for resampling and random number generation for simulation. Random number generation for 18 different distribution functions using three different random number generators. Support for cloud drive access, allowing you to open and save file directly to Dropbox, OneDrive, Google Drive and Box accounts. Time Series Data Handling Integrated support for handling dates and time series data (both regular and irregular). Support for common regular frequency data (Annual, Semi-annual, Quarterly, Monthly, Bimonthly, Fortnight, Ten-day, Weekly, Daily - 5 day week, Daily - 7 day week). Support for high-frequency (intraday) data, allowing for hours, minutes, and seconds frequencies. In addition, there are a number of less commonly encountered regular frequencies, including Multi-year, Bimonthly, Fortnight, Ten-Day, and Daily with an arbitrary range of days of the week. Specialized time series functions and operators: lags, differences, log-differences, moving averages, etc. Frequency conversion: various high-to-low and low-to-high methods. Exponential smoothing: single, double, Holt-Winters, and ETS smoothing. Built-in tools for whitening regression. Hodrick-Prescott filtering. Band-pass (frequency) filtering: Baxter-King, Christiano-Fitzgerald fixed length and full sample asymmetric filters. Seasonal adjustment: Census X-13, X-12-ARIMA, TramoSeats, moving average. Interpolation to fill in missing values within a series: Linear, Log-Linear, Catmull-Rom Spline, Cardinal Spline. Statistics Basic data summaries by-group summaries. Tests of equality: t-tests, ANOVA (balanced and unbalanced, with or without heteroskedastic variances.), Wilcoxon, Mann-Whitney, Median Chi-square, Kruskal-Wallis, van der Waerden, F-test, Siegel-Tukey, Bartlett, Levene, Brown-Forsythe. One-way tabulation cross-tabulation with measures of association (Phi Coefficient, Cramers V, Contingency Coefficient) and independence testing (Pearson Chi-Square, Likelihood Ratio G2). Covariance and correlation analysis including Pearson, Spearman rank-order, Kendalls tau-a and tau-b and partial analysis. Principal components analysis including scree plots, biplots and loading plots, and weighted component score calculations. Factor analysis allowing computation of measures of association (including covariance and correlation), uniqueness estimates, factor loading estimates and factor scores, as well as performing estimation diagnostics and factor rotation using one of over 30 different orthogonal and oblique methods. Empirical Distribution Function (EDF) Tests for the Normal, Exponential, Extreme value, Logistic, Chi-square, Weibull, or Gamma distributions (Kolmogorov-Smirnov, Lilliefors, Cramer-von Mises, Anderson-Darling, Watson). Histograms, Frequency Polygons, Edge Frequency Polygons, Average Shifted Histograms, CDF-survivor-quantile, Quantile-Quantile, kernel density, fitted theoretical distributions, boxplots. Scatterplots with parametric and non-parametric regression lines (LOWESS, local polynomial), kernel regression (Nadaraya-Watson, local linear, local polynomial). or confidence ellipses. Time Series Autocorrelation, partial autocorrelation, cross-correlation, Q-statistics. Granger causality tests, including panel Granger causality. Unit root tests: Augmented Dickey-Fuller, GLS transformed Dickey-Fuller, Phillips-Perron, KPSS, Eliot-Richardson-Stock Point Optimal, Ng-Perron, as well as tests for unit roots with breakpoints. Cointegration tests: Johansen, Engle-Granger, Phillips-Ouliaris, Park added variables, and Hansen stability. Independence tests: Brock, Dechert, Scheinkman and LeBaron Variance ratio tests: Lo and MacKinlay, Kim wild bootstrap, Wrights rank, rank-score and sign-tests. Wald and multiple comparison variance ratio tests (Richardson and Smith, Chow and Denning). Long-run variance and covariance calculation: symmetric or or one-sided long-run covariances using nonparametric kernel (Newey-West 1987, Andrews 1991), parametric VARHAC (Den Haan and Levin 1997), and prewhitened kernel (Andrews and Monahan 1992) methods. In addition, EViews supports Andrews (1991) and Newey-West (1994) automatic bandwidth selection methods for kernel estimators, and information criteria based lag length selection methods for VARHAC and prewhitening estimation. Panel and Pool By-group and by-period statistics and testing. Unit root tests: Levin-Lin-Chu, Breitung, Im-Pesaran-Shin, Fisher, Hadri. Cointegration tests: Pedroni, Kao, Maddala and Wu. Panel within series covariances and principal components. Dumitrescu-Hurlin (2012) panel causality tests. Cross-section dependence tests. Estimation Regression Linear and nonlinear ordinary least squares (multiple regression). Linear regression with PDLs on any number of independent variables. Robust regression. Analytic derivatives for nonlinear estimation. Weighted least squares. White and Newey-West robust standard errors. HAC standard errors may be computed using nonparametric kernel, parametric VARHAC, and prewhitened kernel methods, and allow for Andrews and Newey-West automatic bandwidth selection methods for kernel estimators, and information criteria based lag length selection methods for VARHAC and prewhitening estimation. Linear quantile regression and least absolute deviations (LAD), including both Hubers Sandwich and bootstrapping covariance calculations. Stepwise regression with seven different selection procedures. Threshold regression including TAR and SETAR. ARMA and ARMAX Linear models with autoregressive moving average, seasonal autoregressive, and seasonal moving average errors. Nonlinear models with AR and SAR specifications. Estimation using the backcasting method of Box and Jenkins, conditional least squares, ML or GLS. Fractionally integrated ARFIMA models. Instrumental Variables and GMM Linear and nonlinear two-stage least squaresinstrumental variables (2SLSIV) and Generalized Method of Moments (GMM) estimation. Linear and nonlinear 2SLSIV estimation with AR and SAR errors. Limited Information Maximum Likelihood (LIML) and K-class estimation. Wide range of GMM weighting matrix specifications (White, HAC, User-provided) with control over weight matrix iteration. GMM estimation options include continuously updating estimation (CUE), and a host of new standard error options, including Windmeijer standard errors. IVGMM specific diagnostics include Instrument Orthogonality Test, a Regressor Endogeneity Test, a Weak Instrument Test, and a GMM specific breakpoint test. ARCHGARCH GARCH(p, q), EGARCH, TARCH, Component GARCH, Power ARCH, Integrated GARCH. The linear or nonlinear mean equation may include ARCH and ARMA terms both the mean and variance equations allow for exogenous variables. Normal, Students t, and Generalized Error Distributions. Bollerslev-Wooldridge robust standard errors. In - and out-of sample forecasts of the conditional variance and mean, and permanent components. Limited Dependent Variable Models Binary Logit, Probit, and Gompit (Extreme Value). Ordered Logit, Probit, and Gompit (Extreme Value). Censored and truncated models with normal, logistic, and extreme value errors (Tobit, etc.). Count models with Poisson, negative binomial, and quasi-maximum likelihood (QML) specifications. Heckman Selection models. HuberWhite robust standard errors. Count models support generalized linear model or QML standard errors. Hosmer-Lemeshow and Andrews Goodness-of-Fit testing for binary models. Easily save results (including generalized residuals and gradients) to new EViews objects for further analysis. General GLM estimation engine may be used to estimate several of these models, with the option to include robust covariances. Panel DataPooled Time Series, Cross-Sectional Data Linear and nonlinear estimation with additive cross-section and period fixed or random effects. Choice of quadratic unbiased estimators (QUEs) for component variances in random effects models: Swamy-Arora, Wallace-Hussain, Wansbeek-Kapteyn. 2SLSIV estimation with cross-section and period fixed or random effects. Estimation with AR errors using nonlinear least squares on a transformed specification Generalized least squares, generalized 2SLSIV estimation, GMM estimation allowing for cross-section or period heteroskedastic and correlated specifications. Linear dynamic panel data estimation using first differences or orthogonal deviations with period-specific predetermined instruments (Arellano-Bond). Panel serial correlation tests (Arellano-Bond). Robust standard error calculations include seven types of robust White and Panel-corrected standard errors (PCSE). Testing of coefficient restrictions, omitted and redundant variables, Hausman test for correlated random effects. Panel unit root tests: Levin-Lin-Chu, Breitung, Im-Pesaran-Shin, Fisher-type tests using ADF and PP tests (Maddala-Wu, Choi), Hadri. Panel cointegration estimation: Fully Modified OLS (FMOLS, Pedroni 2000) or Dynamic Ordinary Least Squares (DOLS, Kao and Chaing 2000, Mark and Sul 2003). Pooled Mean Group (PMG) estimation. Generalized Linear Models Normal, Poisson, Binomial, Negative Binomial, Gamma, Inverse Gaussian, Exponential Mena, Power Mean, Binomial Squared families. Identity, log, log-complement, logit, probit, log-log, complimentary log-log, inverse, power, power odds ratio, Box-Cox, Box-Cox odds ratio link functions. Prior variance and frequency weighting. Fixed, Pearson Chi-Sq, deviance, and user-specified dispersion specifications. Support for QML estimation and testing. Quadratic Hill Climbing, Newton-Raphson, IRLS - Fisher Scoring, and BHHH estimation algorithms. Ordinary coefficient covariances computed using expected or observed Hessian or the outer product of the gradients. Robust covariance estimates using GLM, HAC, or HuberWhite methods. Single Equation Cointegrating Regression Support for three fully efficient estimation methods, Fully Modified OLS (Phillips and Hansen 1992), Canonical Cointegrating Regression (Park 1992), and Dynamic OLS (Saikkonen 1992, Stock and Watson 1993 Engle and Granger (1987) and Phillips and Ouliaris (1990) residual-based tests, Hansens (1992b) instability test, and Parks (1992) added variables test. Flexible specification of the trend and deterministic regressors in the equation and cointegrating regressors specification. Fully featured estimation of long-run variances for FMOLS and CCR. Automatic or fixed lag selection for DOLS lags and leads and for long-run variance whitening regression. Rescaled OLS and robust standard error calculations for DOLS. User-specified Maximum Likelihood Use standard EViews series expressions to describe the log likelihood contributions. Examples for multinomial and conditional logit, Box-Cox transformation models, disequilibrium switching models, probit model s with heteroskedastic errors, nested logit, Heckman sample selection, and Weibull hazard models. Systems of Equations Linear and nonlinear estimation. Least squares, 2SLS, equation weighted estimation, Seemingly Unrelated Regression, and Three-Stage Least Squares. GMM with White and HAC weighting matrices. AR estimation using nonlinear least squares on a transformed specification. Full Information Maximum Likelihood (FIML). Estimate structural factorizations in VARs by imposing short - or long-run restrictions. Bayesian VARs. Impulse response functions in various tabular and graphical formats with standard errors calculated analytically or by Monte Carlo methods. Impulse response shocks computed from Cholesky factorization, one-unit or one-standard deviation residuals (ignoring correlations), generalized impulses, structural factorization, or a user-specified vectormatrix form. Impose and test linear restrictions on the cointegrating relations andor adjustment coefficients in VEC models. View or generate cointegrating relations from estimated VEC models. Extensive diagnostics including: Granger causality tests, joint lag exclusion tests, lag length criteria evaluation, correlograms, autocorrelation, normality and heteroskedasticity testing, cointegration testing, other multivariate diagnostics. Multivariate ARCH Conditional Constant Correlation (p, q), Diagonal VECH (p, q), Diagonal BEKK (p, q), with asymmetric terms. Extensive parameterization choice for the Diagonal VECHs coefficient matrix. Exogenous variables allowed in the mean and variance equations nonlinear and AR terms allowed in the mean equations. Bollerslev-Wooldridge robust standard errors. Normal or Students t multivariate error distribution A choice of analytic or (fast or slow) numeric derivatives. (Analytics derivatives not available for some complex models.) Generate covariance, variance, or correlation in various tabular and graphical formats from estimated ARCH models. State Space Kalman filter algorithm for estimating user-specified single - and multiequation structural models. Exogenous variables in the state equation and fully parameterized variance specifications. Generate one-step ahead, filtered, or smoothed signals, states, and errors. Examples include time-varying parameter, multivariate ARMA, and quasilikelihood stochastic volatility models. Testing and Evaluation Actual, fitted, residual plots. Wald tests for linear and nonlinear coefficient restrictions confidence ellipses showing the joint confidence region of any two functions of estimated parameters. Other coefficient diagnostics: standardized coefficients and coefficient elasticities, confidence intervals, variance inflation factors, coefficient variance decompositions. Omitted and redundant variables LR tests, residual and squared residual correlograms and Q-statistics, residual serial correlation and ARCH LM tests. White, Breusch-Pagan, Godfrey, Harvey and Glejser heteroskedasticity tests. Stability diagnostics: Chow breakpoint and forecast tests, Quandt-Andrews unknown breakpoint test, Bai-Perron breakpoint tests, Ramsey RESET tests, OLS recursive estimation, influence statistics, leverage plots. ARMA equation diagnostics: graphs or tables of the inverse roots of the AR andor MA characteristic polynomial, compare the theoretical (estimated) autocorrelation pattern with the actual correlation pattern for the structural residuals, display the ARMA impulse response to an innovation shock and the ARMA frequency spectrum. Easily save results (coefficients, coefficient covariance matrices, residuals, gradients, etc.) to EViews objects for further analysis. See also Estimation and Systems of Equations for additional specialized testing procedures. Forecasting and Simulation In - or out-of-sample static or dynamic forecasting from estimated equation objects with calculation of the standard error of the forecast. Forecast graphs and in-sample forecast evaluation: RMSE, MAE, MAPE, Theil Inequality Coefficient and proportions State-of-the-art model building tools for multiple equation forecasting and multivariate simulation. Model equations may be entered in text or as links for automatic updating on re-estimation. Display dependency structure or endogenous and exogenous variables of your equations. Gauss-Seidel, Broyden and Newton model solvers for non-stochastic and stochastic simulation. Non-stochastic forward solution solve for model consistent expectations. Stochasitc simulation can use bootstrapped residuals. Solve control problems so that endogenous variable achieves a user-specified target. Sophisticated equation normalization, add factor and override support. Manage and compare multiple solution scenarios involving various sets of assumptions. Built-in model views and procedures display simulation results in graphical or tabular form. Graphs and Tables Line, dot plot, area, bar, spike, seasonal, pie, xy-line, scatterplots, boxplots, error bar, high-low-open-close, and area band. Powerful, easy-to-use categorical and summary graphs. Auto-updating graphs which update as underlying data change. Observation info and value display when you hover the cursor over a point in the graph. Histograms, average shifted historgrams, frequency polyons, edge frequency polygons, boxplots, kernel density, fitted theoretical distributions, boxplots, CDF, survivor, quantile, quantile-quantile. Scatterplots with any combination parametric and nonparametric kernel (Nadaraya-Watson, local linear, local polynomial) and nearest neighbor (LOWESS) regression lines, or confidence ellipses. Interactive point-and-click or command-based customization. Extensive customization of graph background, frame, legends, axes, scaling, lines, symbols, text, shading, fading, with improved graph template features. Table customization with control over cell font face, size, and color, cell background color and borders, merging, and annotation. Copy-and-paste graphs into other Windows applications, or save graphs as Windows regular or enhanced metafiles, encapsulated PostScript files, bitmaps, GIFs, PNGs or JPGs. Copy-and-paste tables to another application or save to an RTF, HTML, or text file. Manage graphs and tables together in a spool object that lets you display multiple results and analyses in one object Commands and Programming Object-oriented command language provides access to menu items. Batch execution of commands in program files. Looping and condition branching, subroutine, and macro processing. String and string vector objects for string processing. Extensive library of string and string list functions. Extensive matrix support: matrix manipulation, multiplication, inversion, Kronecker products, eigenvalue solution, and singular value decomposition. External Interface and Add-Ins EViews COM automation server support so that external programs or scripts can launch or control EViews, transfer data, and execute EViews commands. EViews offers COM Automation client support application for MATLAB and R servers so that EViews may be used to launch or control the application, transfer data, or execute commands. The EViews Microsoft Excel Add-in offers a simple interface for fetching and linking from within Microsoft Excel (2000 and later) to series and matrix objects stored in EViews workfiles and databases. The EViews Add-ins infrastructure offers seamless access to user-defined programs using the standard EViews command, menu, and object interface. Download and install predefined Add-ins from the EViews website. Home AboutContact For sales information please email saleseviews For technical support please email supporteviews Please include your serial number with all email correspondence. For additional contact information, see our About page.

Comments