Tidsvarierande Autoregressiva Rörliga Genomsnittet Modeller För Kovarians Skattning


Covariansuppskattning i tid varierande ARMA-processer Visa abstrakt Dölj abstrakt ABSTRAKT: I denna uppsats analyseras en kovariansmatris av p-variabler från n-observationer genom att antingen banda eller tappa provkovariansmatrisen eller uppskatta en bandad version av invers av kovariansen. Vi visar att dessa uppskattningar är konsekventa i operatörsnormen så länge som (log p) nto0, och erhåller explicit priser. Resultaten är likformiga över några ganska naturligt välkonditionerade familjer av kovariansmatriser. Vi introducerar också en analog av den gaussiska vita brusmodellen och visar att om befolkningskovariansen är inbäddbar i den modellen och välkonditionerade, ger de bandade approximationerna konsekventa uppskattningar av egenvärdena och tillhörande egenvektorer i kovariansmatrisen. Resultaten kan utökas till släta versioner av banding och till icke-gaussiska fördelningar med tillräckligt korta svansar. Ett resampling-tillvägagångssätt föreslås för att välja bandningsparametern i praktiken. Detta synsätt illustreras numeriskt på både simulerade och reella data. Artikel april 2008 Peter J. Bickel Elizaveta Levina Visa abstrakt Dölj abstrakt ABSTRAKT: I detta papper föreslår vi en ny regressionstolkning av kovariansmatrisens Cholesky-faktor, i motsats till den välkända regressionstolkningen av Cholesky-faktorn för den inverse kovariansen, vilket leder till en ny klass av regelbundna kovariansestimatorer som är lämpliga för högdimensionella problem. Reglering av koovarians Cholesky-faktor via denna regressionstolkning resulterar alltid i en positiv bestämd estimator. I synnerhet kan man få en positiv bestämd bandadestimator av kovariansmatrisen med samma beräkningskostnad som den populära bandedestimatorn som föreslagits av Bickel och Levina (2008b), vilket inte garanteras vara positiv bestämd. Vi etablerar också teoretiska kopplingar mellan bandning av Cholesky-faktorer i kovariansmatrisen och dess inversa och begränsade maximala sannolikhetsestimering under bandningsbegränsningen, och jämföra numeriska prestanda hos flera metoder i simuleringar och på ett sonardatabyxempel. Fulltext Artikel apr 2009 Adam J. Rothman Elizaveta Levina Ji Zhu Visa abstrakt Dölj abstrakt ABSTRAKT: Covariancematris spelar en central roll i multivariat statistisk analys. Betydande framsteg har gjorts nyligen för att utveckla både teori och metodik för att uppskatta stora kovariansmatriser. Emellertid har en minimax teori ännu inte utvecklats. I det här dokumentet fastställer vi de optimala konvergensnivåerna för uppskattning av kovariansmatrisen under både operatörsnorm och Frobenius-norm. Det visas att optimala förfaranden enligt de två normerna är olika och följaktligen är matrisestimering under operatörsnormen väsentligen annorlunda än vektorestimering. Den minimax övre gränsen erhålls genom att konstruera en speciell klass av avtagande bedömare och genom att studera deras riskegenskaper. Ett viktigt steg för att uppnå den optimala konvergenshastigheten är avledningen av minimax nedre gränsen. Den tekniska analysen kräver nya idéer som är helt annorlunda än de som används i de mer konventionella funktionsanalysproblemen. Kommentar: Publicerad på dx. doi. org10.121409-AOS752 Statistikannonserna (imstat. orgaos) av Institutet för matematisk statistik (imstat. org) Fulltext Artikel okt 2010 T. Tony Cai Cun-Hui Zhang Harrison H . ZhouTime varierande autoregressiva rörliga genomsnittsmodeller för Covariance Estimation quotSuch ett kriterium är viktigt och användbart för att bestämma om bandingstekniken är en lämplig strategi. Andra kovariansestimeringsmetoder, såsom modellering av kovariansmatrisen som en tidsmässig autoregressiv glidande medelvärde (ARMA) - modell 8, kräver också provning för att bestämma om modellen är bra passform. Några nya hypotestester för bandedness finns i 6. quot Konferenspapper Mar 2016 IEEE Transaktioner på Signalbehandling Zhenghan Zhu Steven M. Kay. De specifika strukturerna är vanligtvis vald för att vara linjära eller affine. De mest populära exemplen är sådana modeller som Toeplitz Abramovich et al. (2007) Asif och Moura (2005) Fuhrmann (1991) Kavcic och Moura (2000) Roberts och Ephraim (2000) Snyder et al. (1989) Soloveychik och Wiesel (2014) Sun et al. (2015) Wiesel et al. (2013), gruppsymmetrisk Shah och Chandrasekaran (2012) Soloveychik och Wiesel (2016), gles Banerjee et al. (2008) Ravikumar et al. (2011) Rothman et al. (2008), låg rank Fan et al. (2008) Johnstone och Lu (2009) Lounici et al. (2014) och många andra. Icke-linjära strukturer är också ganska vanliga vid tekniska tillämpningar. citationstecken Visa abstrakt Dölj abstrakt ABSTRAKT: Vi anser att Gaussian och robust kovariansuppskattning förutsätter att den sanna kovariansmatrisen är Kronecker-produkten av två nedre dimensionella kvadratiska matriser. I båda fallen definierar vi estimatorerna som lösningar för begränsade maximala sannolikhetsprogram. I det robusta fallet anser vi att Tylerx27s estimator definieras som en maximal sannolikhetsbedömare för en viss fördelning på en sfär. Vi utvecklar täta tillräckliga förutsättningar för uppskattningarnas existens och unika karaktär och visar att i Gaussian fall med den okända genomsnittliga frac frac 2 är det nästan säkert nog att garantera existensen och unikaheten där p och q är dimensionerna för Kronecks produktfaktorer av den sanna kovariansen. I robust fall med medelvärdet är det motsvarande tillräckliga antalet prover maxfrac, frac 1. Artikel dec 2015 Ilya Soloveychik Dmitry Trushin citatUnder denna hypotes härleds två GLRT-baserade detektorer och prestationsanalysen på verkliga data avslöjar överlägsenheten hos den föreslagna detektorer med avseende på deras icke-bayesiska motsvarigheter när träningssatsen är liten. Den bayesiska ramen kan också användas tillsammans med strukturinformationen om interferens-kovariansmatrisen 11 såsom visas i 12, där störningen modelleras som en flerkanals auto-regressiv process med en slumpmässig tvärkanalkovariansmatris (se även 13, 14) . I radarapplikationer, där system är utrustade med en uppsättning sensorer, uppstår strukturinformation om interferenskovariansmatrisen från utnyttjandet av en specifik klass av geometrier. citationstecken Visa abstrakt Dölj abstrakt ABSTRAKT: Vi adresserar adaptiv radar detektion av mål inbäddade i jordklot dominerade miljöer kännetecknas av en symmetriskt strukturerad effekt spektral densitet. Vid konstruktionsstadiet utnyttjar vi spektrumsymmetri för störningen för att komma fram till beslutsordningar som kan kapitalisera a-priori-informationen på kovariansstrukturen. För detta ändamål bevisar vi att detekteringsproblemet för handen kan formuleras i form av verkliga variabler och då tillämpar vi designprocedurer som bygger på GLRT, Rao-testet och Wald-testet. Specifikt erhålls uppskattningarna av de okända parametrarna under mål-närvarohypotesen genom en iterativ optimeringsalgoritm vars konvergens - och kvalitetsgaranti grundligt bevisas. Prestationsanalysen, både på simulerade och på reella radardata, bekräftar övertygelsen hos de övertygade arkitekturerna över sina konventionella motsvarigheter som inte utnyttjar rotationsspektralsymmetri. Fulltext Artikel Nov 2015 Antonio De Maio Danilo Orlando Chengpeng Hao Goffredo FogliaAutoregressiv Moving Average ARMA (p, q) Modeller för Time Series Analysis - Del 1 I den senaste artikeln såg vi på slumpmässiga promenader och vitt brus som grundläggande tidsseriemodeller för vissa finansiella instrument, såsom dagliga aktier och aktiekurspriser. Vi fann att i vissa fall var en slumpmässig promenadmodell otillräcklig för att fånga instrumentets fullständiga autokorrelationsbeteende, vilket motiverar mer sofistikerade modeller. I de följande artiklarna kommer vi att diskutera tre typer av modeller, nämligen den autoregressiva (AR) - modellen för order p, Moving Average (MA) - modellen för order q och den blandade ARG-modellen (ARMA) av order p , q. Dessa modeller hjälper oss att försöka fånga eller förklara mer av den seriella korrelationen som finns i ett instrument. I slutändan kommer de att ge oss ett sätt att förutse framtida priser. Det är emellertid välkänt att finansiella tidsserier har en egenskap som kallas volatilitetsklypning. Det vill säga instrumentets volatilitet är inte konstant i tiden. Den tekniska termen för detta beteende är känd som villkorlig heteroskedasticitet. Eftersom AR-, MA - och ARMA-modellerna inte är villkorligt heteroskedastiska, det vill säga de tar inte hänsyn till volatilitetsklypning, kommer vi till slut att behöva en mer sofistikerad modell för våra förutsägelser. Sådana modeller inkluderar Autogressive Conditional Heteroskedastic (ARCH) - modellen och Generalized Autogressive Conditional Heteroskedastic (GARCH) - modellen och de många varianterna av dessa. GARCH är särskilt känt inom kvantfinansiering och används främst för finansiella tidsseriemuleringar som ett sätt att uppskatta risk. Men som med alla QuantStart-artiklar vill jag bygga upp dessa modeller från enklare versioner så att vi kan se hur varje ny variant ändrar vår förutsägbara förmåga. Trots att AR, MA och ARMA är relativt enkla tidsseriemodeller, utgör de grunden för mer komplicerade modeller som det autoregressiva integrerade rörliga genomsnittsvärdet (ARIMA) och GARCH-familjen. Därför är det viktigt att vi studerar dem. En av våra första handelsstrategier i tidsseriens artikelserie kommer att vara att kombinera ARIMA och GARCH för att kunna förutse priserna n perioder i förväg. Vi måste dock vänta tills vi har diskuterat både ARIMA och GARCH separat innan vi tillämpar dem på en riktig strategi. Hur kommer vi att fortsätta? I den här artikeln kommer vi att beskriva några nya tidsserier som behövs för de återstående metoderna, nämligen stränga stationaritet och Akaike informationskriterium (AIC). Efter dessa nya koncept kommer vi att följa det traditionella mönstret för att studera nya tidsseriemodeller: Bakgrund - Den första uppgiften är att ge en anledning till varför intresserade sig för en viss modell, som quants. Varför introducerar vi tidsseriemodellen Vilka effekter kan den fånga Vad får vi (eller förlorar) genom att lägga till i extra komplexitet Definition - Vi måste tillhandahålla den fullständiga matematiska definitionen (och tillhörande notering) i tidsseriemodellen för att minimera någon tvetydighet. Andra ordningens egenskaper - Vi kommer att diskutera (och i vissa fall härleda) andra ordningens egenskaper i tidsseriemodellen, som inkluderar dess medelvärde, dess varians och dess autokorrelationsfunktion. Korrelogram - Vi kommer att använda andra ordningens egenskaper för att plotta ett korrelogram av en realisering av tidsseriemodellen för att visualisera dess beteende. Simulering - Vi kommer att simulera realisationer av tidsseriemodellen och sedan anpassa modellen till dessa simuleringar för att säkerställa att vi har exakta implementeringar och förstå monteringsprocessen. Verkliga finansiella data - Vi kommer att anpassa tidsseriemodellen till reella ekonomiska data och överväga korrelogrammet för resterna för att se hur modellen står för seriell korrelation i originalserien. Prediction - Vi kommer att skapa prognoser för tidsserien för tidsseriemodellen för särskilda realisationer för att slutligen producera handelssignaler. Nästan alla artiklar jag skriver om tidsseriemodeller kommer att falla in i det här mönstret och det kommer att göra det möjligt för oss att enkelt jämföra skillnaderna mellan varje modell när vi lägger till ytterligare komplexitet. Började med att titta på strikt stationäritet och AIC. Strikt stationärt Vi tillhandahöll definitionen av stationaritet i artikeln om seriell korrelation. Men för att vi ska komma in i riken för många finansiella serier med olika frekvenser, måste vi se till att våra (eventuella) modeller tar hänsyn till den tidsmässiga volatiliteten i dessa serier. I synnerhet måste vi överväga deras heteroskedasticitet. Vi kommer att stöta på denna fråga när vi försöker passa vissa modeller till historiska serier. I allmänhet kan inte all den seriella korrelationen i resterna av monterade modeller redovisas utan hänsyn till heteroskedasticitet. Detta ger oss tillbaka till stationäritet. En serie är inte stillastående i variansen om den har tidsvarierande volatilitet per definition. Detta motiverar en mer rigorös definition av stationaritet, nämligen strikt stationaritet: Strikt Stationär Serie En tidsseriemodell, är strikt stillastående om den gemensamma statistiska fördelningen av elementen x, ldots, x är densamma som den för xm, ldots, xm, föralltid, m. Man kan tänka sig denna definition som att distributionen av tidsserierna är oförändrad för varje abundär tidsförskjutning. I synnerhet är medelvärdet och variansen konstanta i tid för en strikt stationär serie och autokovariansen mellan xt och xs (säg) beror endast på den absoluta skillnaden mellan t och s, t-s. Vi kommer att se över strikt stationära serier i framtida inlägg. Akaike Information Criterion Jag nämnde i tidigare artiklar att vi så småningom skulle behöva överväga hur man väljer mellan separata bästa modeller. Detta gäller inte bara tidsserieanalysen utan även maskininlärning och, mer allmänt, statistik i allmänhet. De två huvudsakliga metoderna vi kommer att använda (för tillfället) är Akaike Information Criterion (AIC) och Bayesian Information Criterion (som vi fortsätter vidare med våra artiklar om Bayesian Statistics). Tja kortfattat överväga AIC, som det kommer att användas i del 2 i ARMA artikeln. AIC är i huvudsak ett verktyg för att hjälpa till med modellval. Det vill säga om vi har ett urval statistiska modeller (inklusive tidsserier), beräknar AIC kvaliteten på varje modell i förhållande till de andra som vi har tillgång till. Det är baserat på informationsteori. vilket är ett mycket intressant, djupt ämne som vi tyvärr inte kan gå in på för mycket detaljer om. Det försöker balansera modellens komplexitet, vilket i detta fall betyder antalet parametrar, med hur bra det passar data. Kan ge en definition: Akaike Information Criterion Om vi ​​tar sannolikhetsfunktionen för en statistisk modell, som har k parametrar, och L maximerar sannolikheten. då ges Akaike Information Criterion av: Den föredragna modellen, från ett urval av modeller, har gruppens minium AIC. Du kan se att AIC växer när antalet parametrar, k, ökar, men minskas om den negativa loggbarheten ökar. I huvudsak straffar det modeller som överlever. Vi ska skapa AR, MA och ARMA modeller av olika order och ett sätt att välja den bästa modellen passar en viss dataset är att använda AIC. Detta gör vad som är bra i nästa artikel, främst för ARMA-modeller. Autoregressiva (AR) Modeller av order p Den första modellen skulle överväga, som ligger till grund för Del 1, är den autoregressiva modellen av order p, ofta förkortad till AR (p). I den föregående artikeln ansåg vi slumpmässig promenad. där varje term, xt är beroende endast av föregående term, x och en stokastisk vit brus term, wt: Den autoregressiva modellen är helt enkelt en förlängning av den slumpmässiga promenad som innehåller termer längre tid tillbaka. Modellens struktur är linjär. det är modellen beror linjärt på de tidigare villkoren, med koefficienter för varje term. Det här är det regressiva som kommer från autoregressiva. Det är i grunden en regressionsmodell där de tidigare termerna är prediktorerna. Autoregressiv Ordermodell p En tidsseriemodell,, är en autoregressiv modell av order p. AR (p), om: börja xt alfa1 x ldots alfabetisk x wt summa p alfai x wt slutet Var är vitt brus och alfai i mathbb, med alfabetisk neq 0 för en p-orderautoregressiv process. Om vi ​​betraktar Backward Shift Operator. (se föregående artikel) kan vi skriva om ovanstående som en funktion theta av: starta tappen () xt (1 - alfa1 - alfa2 2 - ldot - alfabet) xt wt slutet Kanske är det första att märka om AR (p) modellen är att en slumpmässig promenad är helt enkelt AR (1) med alfa1 lika med enhet. Som vi nämnde ovan är den autogressiva modellen en förlängning av slumpmässig promenad, så det är meningsfullt Det är enkelt att göra förutsägelser med AR (p) - modellen, för vilken tidpunkt som helst, när vi har bestämt alfakoefficienterna, beräknas vår uppskattning blir enkelt: start hatt t alpha1 x ldots alphap x end Därför kan vi göra prognoser för n-steg framåt genom att producera hatt, hatt, hatt, etc upp till hatt. Faktum är att vi, när vi funderar på ARMA-modellerna i del 2, använder R-förutsägesfunktionen för att skapa prognoser (tillsammans med standardfel konfidensintervallband) som hjälper oss att producera handelssignaler. Stationäritet för autoregressiva processer En av de viktigaste aspekterna av AR (p) modellen är att den inte alltid är stationär. Faktum är att stationäriteten hos en viss modell beror på parametrarna. Jag har berört detta tidigare i en tidigare artikel. För att avgöra om en AR (p) - process är stationär eller inte behöver vi lösa den karakteristiska ekvationen. Den karakteristiska ekvationen är helt enkelt den autoregressiva modellen, skriven i bakåtskjutningsform, inställd på noll: Vi löser denna ekvation för. För att den specifika autoregressiva processen ska vara stationär behöver vi alla absoluta värden för rötterna i denna ekvation att överträffa enhet. Detta är en extremt användbar egenskap och tillåter oss att snabbt beräkna om en AR (p) - process är stationär eller ej. Låt oss överväga några exempel för att göra denna idé konkret: Slumpmässig promenad - AR (1) - processen med alfa1 1 har den karakteristiska ekvationen theta 1 -. Tydligen har detta root 1 och är inte stationärt. AR (1) - Om vi ​​väljer alpha1 frac får vi xt frac x wt. Detta ger oss en karakteristisk ekvation av 1 - frac 0, som har en rot 4 gt 1 och så är denna speciella AR (1) - process stationär. AR (2) - Om vi ​​anger alpha1 alpha2 frac får vi xt frac x frac x wt. Dess karakteristiska ekvation blir - frac () () 0, vilket ger två rötter på 1, -2. Eftersom detta har en rotor är det en icke-stationär serie. Dock kan andra AR (2) - serier vara stationära. Andra ordningens egenskaper Medelvärdet av en AR (p) - process är noll. Autokovarianerna och autokorrelationerna ges emellertid av rekursiva funktioner, kända som Yule-Walker-ekvationerna. De fullständiga egenskaperna anges nedan: starta mux E (xt) 0 sluta starta gammal summa p alfa gamma, enspace k 0 sluta starta summan av alfabetet, enspace k 0 slut Observera att det är nödvändigt att känna till alfai parametervärdena före beräkning av autokorrelationer. Nu när vi har sagt andra ordningens egenskaper kan vi simulera olika order av AR (p) och plotta motsvarande korrelogram. Simuleringar och korrelogram Låt oss börja med en AR (1) process. Detta liknar en slumpmässig promenad, förutom att alfa1 inte behöver jämföras. Vår modell kommer att ha alpha1 0,6. R-koden för att skapa denna simulering ges enligt följande: Observera att vår för slinga utförs från 2 till 100, inte 1 till 100, som xt-1 när t0 inte är indexerbar. På samma sätt för AR-processer med högre ordning måste t sträcka sig från p till 100 i denna loop. Vi kan plotta realiseringen av denna modell och dess associerade korrelogram med hjälp av layoutfunktionen: Nu kan du försöka montera en AR (p) - process till de simulerade data som vi just skapat för att se om vi kan återställa de underliggande parametrarna. Du kanske kommer ihåg att vi utförde ett liknande förfarande i artikeln om vitt brus och slumpmässiga promenader. Som det visar sig är R ett användbart kommando för att passa autoregressiva modeller. Vi kan använda den här metoden för att först och främst berätta för oss modellens bästa order p (enligt AIC ovan) och ge oss parametrisuppskattningar för alphai som vi sedan kan använda för att bilda konfidensintervaller. För fullständighet, låt oss återskapa x-serien: Nu använder vi ar-kommandot för att passa en autoregressiv modell till vår simulerade AR (1) - process, med användning av maximal sannolikhetsberäkning (MLE) som passningsförfarande. Vi kommer först att extrahera den bästa erhållna ordern: Ar-kommandot har framgångsrikt bestämt att vår underliggande tidsseriemodell är en AR (1) - process. Vi kan sedan erhålla estimaten för alfai parametrar: MLE-proceduren har skapat en uppskattning, hat 0,523, vilket är något lägre än det verkliga värdet av alfa1 0,6. Slutligen kan vi använda standardfelet (med den asymptotiska variansen) för att konstruera 95 konfidensintervall runt den underliggande parametern. För att uppnå detta skapar vi helt enkelt en vektor c (-1,96, 1,96) och multiplicerar sedan den med standardfelet: Den sanna parametern faller inom 95 konfidensintervallet, vilket vi förväntade oss av det faktum att vi har genererat realiseringen från modellen specifikt . Vad sägs om om vi byter alfa1 -0.6 Som tidigare kan vi passa en AR (p) modell med ar: Återigen återställer vi rätt ordning med modellen, med en mycket bra uppskattning hatt -0.597 av alpha1-0.6. Vi ser också att den sanna parametern faller inom 95 konfidensintervall igen. Låt oss lägga till lite mer komplexitet i våra autoregressiva processer genom att simulera en modell av ordning 2. I synnerhet kommer vi att ange alfa10.666, men också ställa in alfa2 -0.333. Häri den fullständiga koden för att simulera och plotta realiseringen, såväl som korrelogrammet för en sådan serie: Som tidigare kan vi se att korrelogrammet skiljer sig avsevärt från det vita bruset, som vi förväntar oss. Det finns statistiskt signifikanta toppar vid k1, k3 och k4. Återigen skulle vi använda kommandot ar för att passa en AR (p) modell till vår underliggande AR (2) realisering. Förfarandet är liknande som för AR (1) passform: Den korrekta ordningen har återställts och parametern uppskattar hatt 0.696 och hat -0.395 är inte för långt borta från de äkta parametervärdena av alpha10.666 och alpha2-0.333. Observera att vi får ett meddelande om konvergensvarning. Observera också att R faktiskt använder arima0-funktionen för att beräkna AR-modellen. AR-modellerna är bara ARIMA (p, 0, 0) modeller, och sålunda är en AR-modell ett speciellt fall av ARIMA utan Moving Average (MA) - komponent. Tja, använd också arima-kommandot för att skapa konfidensintervaller runt flera parametrar, varför weve försummade att göra det här. Nu när vi har skapat några simulerade data är det dags att tillämpa AR (p) - modellerna på finansiella tillgångar tidsserier. Financial Data Amazon Inc. Låt oss börja med att köpa aktiekursen för Amazon (AMZN) med hjälp av quantmod som i den senaste artikeln: Den första uppgiften är alltid att prissätta priset för en kort visuell inspektion. I det här fallet använder du de dagliga slutkurserna: Du märker att quantmod lägger till en del formatering för oss, nämligen datumet och ett lite snyggare diagram än de vanliga R-diagrammen: Vi ska nu ta den logaritmiska avkastningen från AMZN och sedan den första - orderskillnad i serien för att konvertera de ursprungliga prisserierna från en icke-stationär serie till en (potentiellt) stationär en. Detta gör det möjligt för oss att jämföra äpplen med äpplen mellan aktier, index eller någon annan tillgång för användning i senare multivariat statistik, till exempel vid beräkning av en kovariansmatris. Om du vill ha en detaljerad förklaring till varför loggaregistrering är att föredra, ta en titt på den här artikeln över på Quantivity. Låt oss skapa en ny serie, amznrt. för att hålla våra differenced log returnerar: Återigen kan vi plotta serien: På detta stadium vill vi plotta korrelogrammet. Var ser för att se om den olika serien ser ut som vitt brus. Om det inte är så är det oförklarligt seriell korrelation, vilket kan förklaras av en autoregressiv modell. Vi märker en statistiskt signifikant topp vid k2. Därför finns det en rimlig möjlighet till oförklarlig seriell korrelation. Var medveten om att detta kan bero på provtagningsprocesser. Som sådan kan vi försöka montera en AR (p) - modell i serien och skapa konfidensintervaller för parametrarna: Montera den ar-autoregressiva modellen till första orderens olika loggpriser ger en AR (2) modell med hatt -0.0278 och hatt -0,0687. Ive matar också den aysmptotiska variansen så att vi kan beräkna standardfel för parametrarna och producera konfidensintervaller. Vi vill se om noll är en del av 95-konfidensintervallet, som om det är, det minskar vårt förtroende för att vi har en sann underliggande AR (2) - process för AMZN-serien. För att beräkna konfidensintervallerna på 95-nivån för varje parameter använder vi följande kommandon. Vi tar kvadratroten av det första elementet i den asymptotiska variansmatrisen för att skapa ett standardfel och skapa sedan konfidensintervaller genom att multiplicera den med -1,96 respektive 1,96 för 95-nivån: Observera att detta blir enklare när du använder arima-funktionen , men vänta tills del 2 innan du inför den korrekt. Således kan vi se att för alfa1 finns noll inom konfidensintervallet, medan för alfa2 noll inte finns i konfidensintervallet. Därför borde vi vara mycket försiktiga med att tro att vi verkligen har en underliggande generativ AR (2) modell för AMZN. I synnerhet noterar vi att den autoregressiva modellen inte tar hänsyn till volatilitetsklypning, vilket leder till gruppering av seriekorrelation i finansiella tidsserier. När vi betraktar ARCH - och GARCH-modellerna i senare artiklar tar vi hänsyn till detta. När vi kommer att använda hela arima-funktionen i nästa artikel kommer vi att göra förutsägelser av den dagliga loggprisserien för att vi ska kunna skapa handelssignaler. SampP500 US Equity Index Tillsammans med enskilda aktier kan vi också överväga US Equity Index, SampP500. Låt oss tillämpa alla tidigare kommandon i denna serie och producera tomterna som tidigare: Vi kan plotta priserna: Såsom tidigare skapar du den första orderskillnaden för loggavslutningspriserna: Återigen kan vi plotta serien: Det är klart från detta diagram att volatiliteten inte är stillastående i tid. Detta återspeglas även i korrelogrammet. Det finns många toppar, inklusive k1 och k2, som är statistiskt signifikanta utöver en vit ljudmodell. Dessutom ser vi tecken på långminniga processer eftersom det finns några statistiskt signifikanta toppar vid k16, k18 och k21: I slutändan behöver vi en mer sofistikerad modell än en autoregressiv modell av order p. Men i detta skede kan vi fortfarande försöka passa en sådan modell. Låt oss se vad vi får om vi gör det: Användar ar producerar en AR (22) modell, det vill säga en modell med 22 icke-nollparametrar. Vad säger detta oss? Det är indikerande att det är sannolikt mycket mer komplexitet i seriekorrelationen än en enkel linjär modell av tidigare priser kan verkligen stå för. Men vi visste redan detta eftersom vi kan se att det finns en betydande seriekorrelation i volatiliteten. Tänk på den mycket flyktiga perioden runt 2008. Detta motiverar nästa uppsättning modeller, nämligen Moving Average MA (q) och den autoregressiva rörliga genomsnittliga ARMA (p, q). Bra lära dig om båda dessa i del 2 i den här artikeln. Som vi upprepade gånger nämner kommer dessa i slutändan leda oss till modellerna ARIMA och GARCH, vilka båda kommer att ge en mycket bättre passform till Samp500s seriella korrelationskomplexitet. Det gör att vi kan förbättra våra prognoser avsevärt och slutligen producera mer lönsamma strategier. Just Komma igång med kvantitativ TradingTime-varierande ARMA stabil processuppskattning med hjälp av sekventiell Monte Carlo Citera denna artikel som: Huang, R. Zheng, H. Kuruoglu, EE SIViP (2013) 7: 951. doi: 10.1007s11760-011-0285-x Olika tidsseriedata i applikationer som sträcker sig från telekommunikation till ekonomisk analys och från geofysiska signaler till biologiska signaler uppvisar icke-stationära och icke-gaussiska egenskaper. - Stabila distributioner har varit populära modeller för data med impulsiva och icke-symmetriska egenskaper. I det här arbetet presenterar vi tidsvarierande autoregressiva rörliga medelstabila processer som en potentiell modell för ett brett spektrum av data, och vi föreslår en metod för att spåra processens tidsvarierande parametrar med - stabil distribution. Tekniken är baserad på sekventiell Monte Carlo, som har antagit en stor popularitet i olika applikationer där data eller systemet är icke-stationärt och icke-gaussiskt. - Stabila processer Tidsmässiga processer Sekventiell Monte Carlo Referenser Miyanaga Y. Miki N. Nagai N. Adaptiv identifiering av en tidsvarig ARMA-talmodell. i: IEEE Trans. Acoust. Talsignalprocess. 34 (3), 423433 (1986) CrossRef Google Scholar Mobarakeh A. Rofooei F. Ahmadi G. Simulering av jordbävningsrekord med tidsvarierande ARMA (2,1) modell. Probab. Eng. Mech. 17 (1), 1534 (2002) CrossRef Google Scholar Refan, M. Mohammadi, K. Mosavi, M. Tidsmässig ARMA-behandling på lågpris GPS-mottagardata för att förbättra positionsnoggrannheten. I: Förlopp av asiatisk GPS (2002) Patomaki, L. Kaipio, J. Karjalainen, P. Spårning av icke-stationär EEG med rötterna av ARMA-modeller. I: IEEE 17: e årskonferensteknik i medicin och biologi, vol. 2, sid. 877878 (1995) Zielinski J. Bouaynaya N. Schonfeld D. ONeill W. Tidsberoende ARMA-modellering av genomiska sekvenser. BMC Bioinform. 9 (Suppl 9), S14 (2008) CrossRef Google Scholar Kuruoglu E. Zerubia J. Modellering av radarbilder med syntetisk bländare med en generalisering av Rayleigh-distributionen. i: IEEE Trans. Bildprocess. 13 (4), 527533 (2004) CrossRef Google Scholar Bloch K. Arce G. Median korrelation för analys av genuttrycksdata. Signalprocess. 83. 811823 (2003) MATH CrossRef Google Scholar Pesquet-Popescu B. Pesquet J. Syntes av bidimensional alfa-stabila modeller med långvarigt beroende. Signalprocess. 82. 19271940 (2002) MATH CrossRef Google Scholar Rosario M. Garroppo G. Giordano S. Procissi G. Testning av alfa-stabila processer för att fånga upp köregenskaperna hos bredbandstätningar. Signalprocess. 82. 18611872 (2002) MATH CrossRef Google Scholar Lvy P. Calcul des Probabilits. Gauthier-Villars, Paris (1925) MATH Google Scholar Mandelbrot B. Variationen av vissa spekulativa priser. J. Bus. 36 (4), 394419 (1963) CrossRef Google Scholar Gallardo J. Makrakis D. Orozco-Barbosa L. Användning av alstabila självliknande stokastiska processer för modellering av trafik i bredbandsnät. Utföra. Eval. 40 (13), 7198 (2000) MATH CrossRef Google Scholar Bates, S. Mclaughlin, S. Testa det gaussiska antagandet för egna liknande teletraffic modeller. I: Förlopp i IEEE Signal Processing Workshop på högre orderstatistik, s. 444447 (1997) Samorodnitsky G. Taqqu M. Stabila icke-gaussiska slumpmässiga processer: Stokastiska modeller med oändlig varians (stokastisk modellering). Chapman amp HallCRC, London (1994) MATH Google Scholar Davis R. Knight K. Liu J. m-estimering för autoregressioner med oändlig varians. Stoch. Bearbeta. Appl. 40. 145180 (1992) MathSciNet MATH CrossRef Google Scholar Nikias C. Shao M. Signalbehandling med Alpha-stabila distributioner och applikationer. Wiley-Interscience, New York (1995) Google Scholar Lombardi M. Godsill S. On-line Bayesian estimation of signals in symmetric alpha-stable noise. in: IEEE Trans. Signal Process. 54 (2), 775779 (2006) CrossRef Google Scholar Kuruoglu E. Nonlinear least lp-norm filters for nonlinear autoregressive alpha-stable processes. Digit. Signal Process. 12 (1), 119142 (2002) CrossRef Google Scholar Salas-Gonzalez D. Kuruoglu E. Ruiz D. Modelling with mixture of symmetric stable distributions using Gibbs sampling. Signal Process. 90 (3), 774783 (2010) MATH CrossRef Google Scholar Gencaga D. Ertuzun A. Kuruoglu E. Modeling of non-stationary autoregressive alpha-stable processes by particle filters. Digit. Signal Process 18 (3), 465478 (2008) CrossRef Google Scholar Gencaga D. Kuruoglu E. Ertuzun A. Yildirim S. Estimation of time-varying AR SS processes using Gibbs sampling. Signal Process. 88 (10), 25642572 (2008) MATH CrossRef Google Scholar Haas, M. Mittnik, S. Paolella, M. Steudee, S. Stable Mixture GARCH Model. National centre of competence in research financial valuation and risk management. National Centre of Competence in Research Financial Valuation and Risk Management Working Paper No. 257 Crisan D. Particle Filters-A Theoretical Perspective. Springer, New York (2001) Google Scholar Doucet A. Godsill S. Andrieu C. On sequential Monte Carlo sampling methods for Bayesian filtering. Stat. Comput. 10 (3), 197208 (2000) CrossRef Google Scholar Djuric P. Kotecha J. Zhang J. Huang Y. Ghirmai T. Bugallo M. Miguez J. Particle filtering. in: IEEE Signal Process. Mag. 20 (5), 1938 (2003) CrossRef Google Scholar Jachan M. Matz G. Hlawatsch F. Time-frequency ARMA models and parameter estimators for underspread nonstationary random processes. in: IEEE Trans. Signal Proc. 55 . 43664381 (2007) MathSciNet CrossRef Google Scholar Haseyama M. Kitajima H. An ARMA order selection method with fuzzy reasoning. Signal Process. 81 (6), 13311335 (2001) MATH CrossRef Google Scholar Capp, O. Moulines, E. Rydn, T. Inference in Hidden Markov Models. Springer series in Statistics, pp. 209244 (2005) Douc, R. Capp, O. Moulines, E. Comparison of resampling schemes for particle filtering. In: Proceedings of the 4th International Symposium on Image and Signal Processing Analysis, pp. 6469 (2005) Copyright information Springer-Verlag London Limited 2011 Authors and Affiliations Renke Huang 1 Hao Zheng 2 Email author Ercan E. Kuruoglu 3 Email author 1. School of Electrical and Computer Engineering Georgia Institute of Technology Atlanta USA 2. School of Electrical and Computer Engineering Georgia Institute of Technology Savannah USA 3. Images and Signals Laboratory Institute of Science and Technology of Information, A. Faedo Italian National Council of Research (ISTI-CNR) Pisa Italy About this article

Comments