Friday, May 11, 2007
Markkinoiden epätäydellisyys ja TA
Tehokkaiden markkinoiden pettäminen näkyy ehkä dramaattisimmin vuoden 2000 teknokuplan kaltaisissa äärimmäisissä tilanteissa. Mitään niin ratkaisevaa tietoa ei loppuvuodesta 1999 ja vuoden 2000 alkupuoliskolla tullut julkisuuteen, että se voisi selittää ensin kurssien rajun nousun ja sitten miltei yhtä nopean laskun. Vaikuttaakin selvältä, että kyse oli ketjukirjeiden tai pyramidihuijausten kaltaisesta tapahtumaketjusta, jossa tiedettiin kurssien olevan katteettomalla tasolla, mutta uskottiin silti, että ne tulevat vielä lähitulevaisuudessa jatkamaan nousuaan. Tämä usko riitti ylläpitämään nousua kauas fundaperusteisesti ymmärrettävien tasojen yläpuolelle.
Trendien esiintyminen onkin yksi ilmeisimpiä markkinoiden epätäydellisyyden ilmentymiä. Trendeille on helppo löytää monia muitakin uskottavia selityksiä, kuten yrityksiä koskevan tiedon asteittainen leviäminen sekä yritysten taipumus tiedottaa tilansa muutoksista vähittäin (yritysjohto ei ehkä itsekään usko muutoksien merkittävyyteen ensimmäisten tiedottamista vaativien tietojen varmistuttua, vaikka niiden ennustearvo on jo vahva).
Vastakkainen poikkeama tehokkaiden markkinoiden ennusteesta on osakekurssien heiluminen pitkään jonkun kurssitason tuntumassa siten, että luottamus kurssien palaamiseen tälle tasolle antaa mahdollisuuden kannattavaan treidaukseen.
Intuitiivisesti tuntuu hyvin uskottavalta että sekä tehokkaiden markkinoiden hypoteesin kanssa ristiriidassa olevia trendejä että heilahtelua jonkun tason tuntumassa todellakin tapahtuu. Näille intuitiivisesti uskottaville selityksille on yhteistä, että tuoreen kurssihistorian arvioidaan vaikuttavan sijoittajien päätöksiin. Myös trendien ja niiden välisten käänteiden muodostama aaltoilu on intuitiivisesti hyvin uskottava ilmiö. Kaikille näille ilmiöille vaikuttaisi kuitenkin olevan voimassa, että ne eivät toistu identtisinä eivätkä suuruudeltaan tarkoin ennustettavina. Yhtä puoliaaltoa seuraavan vastakkaisen heilahduksen voi olettaa olevan samaa luokkaa alkuperäisen liikkeen kanssa, mutta ei ole uskottavaa, että liikkeiden suuruudet olisivat toistuvasti jossain kiinteässä suhteessa toisiinsa. On mahdollista, että tämän suhteen todennäköisyysjakauma suosii jonkun tyypillisen arvon tuntumassa olevia suhteita, mutta edes tästä ei tiettävästi ole selviä todisteita. Joka tapauksessa on mahdotonta selittää uskottavasti monimutkaisempia sääntöjä, kuten Elliot Wave teorian mukaista käyttäytymistä esimerkiksi sijoittajapsykologialla. Useamman aallon pituinen historia on aivan liian monimutkainen syntyäkseen tuolta pohjalta toistuvasti samanlaisena.
Sijoittajien luottamus TA-menetelmiin voi synnyttää tehottomuutta markkinoilla, mutta yleisesti pätevä sääntö on, että osaavien sijoittajien usko johonkin TA-menetelmään heikentää aina tämän menetelmän toimivuutta. Muiden sijoittajien uskoa johonkin TA-menetelmään voi siis hyödyntää vain menettelemällä toisin kuin tähän menetelmään uskovat menettelevät. Mikään TA-menetelmä ei voi ylläpitää omaa toimivuuttaan.
Aronson esittää kirjassaan tuloksia 6402 eri TA-menetelmän testauksesta jaksolla 1.11.1980-1.7.2005. Nämä menetelmät ovat variaatioita muutamasta perusmenetelmästä ja niiden suuri määrä perustuu samaa perusmenetelmää edustavien variaatioiden määrään. Kaikissa menetelmissä pyritään jakamaan aika jaksoihin, joina ollaan longina tai shorttina SP500-indeksiin ja toiveena on siis löytää menetelmä, jolla tunnistetaan nousu- ja laskujaksot sattumaa paremmalla todennäköisyydellä. Ennusteiden perusteena on käytetty 24 eri aikasarjaa, jotka kuvaavat mm. muutamia yleis- ja toimialaindeksejä, NYSE:n volyymia, nousseiden ja laskeneiden osakkeiden lukumääräsuhteita sekä korkotuottoja. Näistä aikasarjoista on muodostettu erilaisia indikaattoreita, kuten kynnystasojen ylityksiä ja divergenssejä. Kaikille Aronsonin testaamille säännöille on yhteistä, että ne ovat lähellä menetelmiä, joita TA-harrastajat ovat pitkään käyttäneet. Niiden soveltaminen on suhteellisen helppoa myös ilman vaativaa ohjelmointia.
Aronsonin testien tulos oli vaatimaton. Parhaiten menestyneiden menetelmien tuottama tulos osoittautui niin vähäiseksi, että olisi ollut yllättävää, ellei yksikään tehoton menetelmä olisi menestynyt pelkällä onnella yhtä hyvin. Itse asiassa odotuksena oli, että joku olisi menestynyt sattumalta jopa paremmin, mutta tämä poikkeama oli kuitenkin täysin normaaleissa rajoissa.
Sille, että Aronsonin testit tuottivat negatiivisen tuloksen ei kuitenkaan voi panna kovin paljon painoa mm. seuraavista syistä:
- ennustamisen kohteena oli vain SP500-indeksi, joten tulos koskee vain sen kaltaista yleisindeksiä
- tarkastelu koski vain päivittäisiin avauskursseihin perustuvaa kaupankäyntiä, jotta kauppojen suorittaminen olisi voinut perustua edellisen päivän päätöskursseihin
- kaikissa menetelmissä oletettiin sijoittajan olevan jatkuvasti joko longina tai shorttina ja aina samalla panoksella. Neutraali tai pienempi positio tilanteissa, joissa indikaatio on marginaalinen, olisi saattanut vähentänyt hajontaa pienentämättä tuloksen odotusarvoa ja siten parantanut mahdollisuuksia saada tilastollisesti merkitseviä tuloksia.
- tarkastelujakso oli lähes 15 vuotta, joten vain sellaiset menetelmät saattoivat menestynä, joiden toimivuus kattoi valtaosan tästä jaksosta.
- lopulliset kriteerit olivat pelkistettyjä. Käytettävästä laajasta aineistosta olisi voitu muodostaa kehittyneen aikasarja-analyysin keinoin tunnuslukuja, jotka kuvaavat valittuja perusilmiöitä tehokkaammin ja jotka olisivat siten saattaneet tuottaa parempia tuloksia, vaikka kriteerin perusideat olisivat olleet täysin samoja. Valitut menetelmät eivät siis olleet optimaalisen tehokkaita trendien tai käänteiden indikaattoreita.
- Aronson oli ottanut mukaan 6402 menetelmää. Niiden joukossa oli suuri osa intuitiivisesti äärimmäisen epäuskottavia, sellaisiakin, joiden voisi paremmin uskoa tuottavan tappiota. Mitä suurempi on menetelmien määrä sitä pahemmin peittävät sattumalta hyvin menestyneet menetelmät joukkoonsa ne, jotka menestyvät hyvin todellisen arvonsa ansiosta.
On täysin korrektia tehostaa testausta rajoittumalla uskottaviin menetelmiin edellyttäen, että uskottavuudella ei ole yhteyttä aiempiin empiirisiin havaintoihin näiden menetelmien paremmuudesta ja että vastaavia testejä ei toisteta uusilla "uskottavilla menetelmillä" unohtaen aiempien testien menetelmät kokonaislukumäärästä merkitsevyyttä testattaessa. Myös aiempien empiiristen havaintojen vaikutus menetelmien valintaan heikentää vaikeasti arvioitavassa määrin testin tilastollista merkitsevyyttä, jos aiempien havaintojen aineistoa sisältyy myös tämän testin aineistoon tai jos siihen sisältyy esimerkiksi samalta jaksolta olevaa korreloivaa aineistoa, kuten DJIA dataa.
Edellä mainituista varauksista huolimatta voi Aronsonin testien katsoa antavan merkittävää indikaatiota siitä, että SP500-tyyppisen indeksin päivittäisiin avauksiin perustuva kaupankäynti ei onnistu kannattavasti TA:n avulla. Päivänsisäisestä treidauksesta se ei kerro juuri mitään ja vielä vähemmän yksittäisiin osakkeisiin kohdistuvasta kaupankäynnistä. Muissa tutkimuksissa onkin saatu vakuuttavimpia positiivisia tuloksia yksittäisten osakkeiden trendeihin perustuvasta kaupankäynnistä, kuten Perässähiihtäjän blogin http://sijoittajat.com/blogit/perassahiihtaja monista kirjoituksista voimme oppia.
Monday, May 7, 2007
Tilastollisen testaamisen menetelmistä ja ongelmista
Rungon tälle blogille muodostaa edellisen tapaan Aronsonin kirja, mutta esitän myös omia kommenttejani yrittäen kertoa, missä näin teen.
Tilastollisen testauksen perusajatus on, että testaus ei koskaan osoita jotain tiettyä mallia oikeaksi, mutta se voi osoittaa suurella varmuudella, että joku oletus on väärä tai parhaimmillaan, että historia on toistuvasti noudattanut tietyllä tarkkuudella jonkun mallin ennusteita. Jos tämä tarkkuus on hyvä suhteessa ennusteiden merkitykseen, antaa aineisto vahvaa tukea sille, että malli on testatuilta piirteiltään todellisuudenkaltainen ja käyttökelpoinen.Kun testauksen kohteena ovat hyvin määritellyt sijoitusstrategiat, olivat ne sitten ta-pohjaisia tai fundamentteihin perustuvia, on ensimmäinen kysymys, voidaanko menetelmän katsoa toimivan paremmin kuin joku vertailukohta, kuten indeksisijoittaminen tai riskitön korko. Tällöin pyritään testaamisessa tutkimaan, voidaanko osoittaa valitulla varmuudella vääräksi ns. nollahypoteesi, jonka mukaan malli ei ole tuotoltaan vertailukohtaa parempi. Ellei tämä onnistu, katsotaan, että menetelmän hyödyllisyydestä ei ole todisteita. Jos menetelmä läpäisee tämän ensimmäisen testin, on perusteita ryhtyä arvioimaan, onko menetelmän lisätuotto niin suuri, että sen käyttöä voidaan pitää perusteltuna.
Testauksen ensimmäisen vaiheen perusideana on laskea todennäköisyys, että saavutetaan vähintään testattavan menetelmän tasoinen tuotto käytettäessä vertailukohteena olevaa menetelmää (nollahypoteesia). Tämä edellyttää sen arvioimista, kuinka paljon tuotot vaihtelevat satunnaisten ilmiöiden vaikutuksesta. Vaihteluiden suuruus joudutaan päättelemään historiatiedoista, mikä voi tapahtua joko muodostamalla suoraan historiatietojen perusteella vertailussa käytettävä tuottojen todennäköisyysjakauma tai käyttämällä jotain sopivaksi arvioitua jakaumaluokkaa, jolloin jakauman parametrit määritetään historiatiedoista. Kokemus on osoittanut, että esimerkiksi päivittäiset kurssimuutokset eivät noudata normaalijakaumaa, vaan suuret poikkeamat ovat yleisempiä kuin normaalijakaumassa, jonka hajonta on sama. Täten esimerkiksi normaalijakauma ei yleensä sovi testaamiseen, vaan tarvitaan jakaumaa, jolla on "paksummat hännät".
Aronson kuvailee kaksi menetelmää luoda todennäköisyysjakauma suoraan historiatiedoista ja käyttää niitä kirjassa esiteltävissä testeissä. Kumpikin näistä menetelmistä perustuu oletukseen, että peräkkäisten jaksojen (päivien) muutoksia voidaan pitää riippumattomina. Suorat tilastolliset analyysit ovat osoittaneet, että peräkkäisten päivien muutoksien väliset korrelaatiot ovat hyvin heikot, joten virhe ei tältä osin ole suuri. Vielä olennaisempaa on, että korreloimattomuus kaikilla jaksoilla voidaan ottaa nollahypoteesin ominaisuudeksi, joten tehty oletus ei vääristä nollahypoteesille laskettua hajontaa. Kun testattavat menetelmät perustuvat kuitenkin poikkeuksetta joidenkin korrelaatioiden hyväksikäyttöön, on oletettavissa, että saatujen tulosten hajonta kasvaisi, jos testausaineisto voitaisiin saada sisältämään vastaavia mutta vaikutuksen suunnan osalta satunnaisia korrelaatioita. Täten on todennäköistä, että nollahypoteesi tulee hylätyksi ainakin hieman liian herkästi eli on liian suuri mahdollisuus todeta, että joku menetelmistä on hyödyllinen silloinkin, kun kaikki ovat kyvyttömiä antamaan odotusarvoisesti lisätuottoa. Tätä viimeisintä näkökohtaa ei Aronson näyttäisi tuovan kirjassaan esille.
Suoraan historia-aineistosta muodostetulla todennäköisyysjakaumalla on myös heikkoutensa, kun testataan pieniä todennäköisyyksiä, sillä historia-aineistosta saadaan aina hyvin harvoja esimerkkejä jakauman äärimmäisestä hännästä ja jakaumalla on myös aina joku äärimmäinen raja, jota aineiston perusteella ei ylitetä. Mahdolliset tulevaisuudet sisältävät aina myös sellaisia muutoksia, joiden kaltaisia ei koko historia-aineistossa esiinny. Tällaiset tapahtumat ovat luonnollisesti epätodennäköisiä, mutta niillä voi olla huomattava vaikutus testauksen tuloksiin jos yksittäiset poikkeukselliset tapahtumat voivat vaikuttaa merkittävästi koko testausjakson tuottoon. Muodoltaan perusteltu jatkuva jakauma voisi tällöin antaa luotettavampia tuloksia kuin suoraan historiatiedoista muodostettu diskreetti jakauma. Jos yhden jakson muutoksen todellisen jakauman hännät ovat erityisen paksut siinä mitassa, että ne kasvattavat jakauman hajonnan hyvin suureksi, antaa äärellisestä historia-aineistosta generoitu jakauma pahoin vääriä tuloksia. Tällaisten epävarmuustekijöiden vaikutuksia voi tutkia vertailemalla erilaisia mallijakaumia. Tähän ongelmaan Aronson ei kiinnitä huomiota.
Erityisen paljon huomiota saa Aronsonin kirjassa ongelma, joka syntyy käytettäessä samaa historiatietoa parhaitten menetelmien valitsemiseen suuresta joukosta mahdollisia menetelmiä (ns. data mining) sekä näin löydettyjen menetelmien tehokkuuden testaamiseen. On selvää, että satunnaisten tekijöiden vaikutuksesta löytyy monien samanarvoisten menetelmien joukosta aina joku, jonka tuotto on selvästi keskimääräistä parempi. Täten on joko perustettava valinta eri aineistoon kuin testaus tai arvioitava, kuinka suuri vaikutus on parhaan menetelmän valinnalla. Kun aineisto on rajallista, löytyy aidosti hyvä menetelmä sitä varmemmin, mitä suurempaa aineistoa käytetään, joten tältä kannalta kannattaa käyttää koko aineistoa molempiin tarkoituksiin, vaikka se vaikeuttaakin testaamista.
Kun yksittäisten menetelmien tuottojen todennäköisyysjakauma on tiedossa, on suhteellisen helppo määrittää jakauma kuvaamaan parhaan menetelmän valinnan tuottamaa jakaumaa, jolloin merkitsevyystesti voidaan tehdä tämän jakauman perusteella. Menettelyn ongelmana on kuitenkin se, että testattavien menetelmien määrän ollessa suuri, kasvaa tuotto, joka miltei väistämättä saadaan valitsemalla arvottomistakin menetelmistä sattumalta paras. Se kasvaa niin suureksi, että jo pienempäänkin oltaisiin tyytyväisiä, jos se tiedettäisiin todelliseksi eikä valinnan harhaksi. Täten aidosti hyödylliset menetelmät saattavat hukkua sattumalta hyviä tuloksia antavien joukkoon, eikä voida tietää, onko sellaisia testattavassa joukossa vai ei. Koska ongelma kasvaa menetelmien lukumäärän kasvaessa, voidaan tätä ongelmaa lieventää rajaamalla testattavaa joukkoa jollain perusteella, joka on täysin riippumaton testauksessa käytettävästä aineistosta. Valinta ei siis saa perustua aikaisempaan samasta aineistosta saatuun tietoon.
Testaamiseen liittyy myös tarkastelujaksoa koskeva vakava dilemma. Tilastolliselta kannalta testi on sitä tehokkaampi, mitä pitempää jaksoa tarkastellaan. Pitkää jaksoa tarvitaan myös, jotta siihen sisältyisi mahdollisimman monipuolisesti erilaisia markkinatilanteita. Pitkän tarkastelujakson olennaisena ongelmana on kuitenkin se, että markkinoiden muutoksista osa on pysyviä. Esimerkiksi siirtyminen meklareiden kautta tapahtuneesta pörssisalin lattialla tehdystä kaupankäynnistä nykyiseen online-kauppaan on aivan varmasti muuttanut paljon. Siten on syytä epäillä, että kauemmasta historiasta saadut tiedot eivät paranna tulosten merkitsevyyttä tilastolakien mukaisesti, vaan päinvastoin heikentävät sitä tuomalla aineistoon nykyisyydestä ja tulevaisuudesta poikkeavaa materiaalia. Jakson valintaan liittyvään dilemmaan ei Aronson mielestäni kiinnitä riittävästi huomiota, vaikka hän sen olemassa oon tuokin esille.
Aronsonin kirja kuvailee testaamista kohtalaisen yksityiskohtaisesti, ei kuitenkaan niin yksityiskohtaisesti, että vain sen perusteella olisi mahdollista rakentaa vahvoja testejä ilman muualta hankittuja välineitä tai osaamista. Monet käytännön testaamisen kannalta olennaiset näkökohdat tuodaan hyvin esille, mutta kuten edellä olen todennut, on tärkeitä näkökohtia jäänyt myös vajavaisen esityksen varaan.
Tuesday, May 1, 2007
Voiko teknillinen analyysi perustua tutkimukseen - ja pitäisikö sen?
Olen viime päivinä paneutunut David Aronsonin kirjaan "Evidence-Based Technical Analysis". Yritän nyt muutamassa blogikirjoituksessa esittää arvioni kirjasta sekä sen synnyttämiä omia ajatuksiani.
Seuraavassa blogissani jatkan siitä, mitä Aronson kertoo TA-menetelmien tilastollisesta testaamisesta ja esitän joitain omia kommenttejani aiheesta.
Friday, January 19, 2007
Tuoton perusta on tiedettävä
Treidauksessakin päätyy juuri sinne, minne markkinat sattuvat viemään, ellei treidaaja tiedä, mitä on tekemässä ja mistä on hakemassa voittoa. Monet TA:n menetelmät ja muut treidaustavat voivat tuntua tuottoisilta aikansa, mutta eivät ole sitä koskaan pitemmän päälle, ellei treidaaja tiedä, miksi hän ansaitsee ja mistä hän havaitsee, että valittu toimintatapa ei vallitsevassa markkinatilanteessa toimi.
Markkinoilla on pitkäjänteisempiä sijoittajia ja treidareita. Kaikki nämä yhdessä jakavat sitä lisäarvoa, mitä pörssiyhtiöt ja muut sijoituskohteet kokonaisuutena tuottavat, kun tuotoista on ensin vähennetty välittäjien osuudet ja muut kulut. Ilman treidaajia markkinoiden likviditeetti olisi riittämätön ja hinnanmuodostus tehottomampaa. Tämä muiden markkinaosapuolten tehottomuus on yhtenä lähteenä treidareiden tuotoille, mutta välittäjien osuus ja kulut voivat hyvinkin ylittää nämä tuotot. Kaikki tai suurin osa menestyvien treidareiden tuotoista tulee siten vähemmän menestyviltä treidareilta, jolloin treidaaminen kokonaisuudessaan on nollasummapeliä tai jopa miinussummapeliä.
Tehokkailla markkinoilla ei treidaus voi tuottaa - tämä on suora seuraus tehokkaiden markkinoiden määritelmästä. Treidaus hakee siten tuottoaan markkinoiden tehottomuuksista.
Yksi markkinoille aina ominainen tehottomuus syntyy rajallisesta likviditeetistä. Kun joku sijoittaja haluaa ostaa tai myydä suuren erän jotain sijoituskohdetta, ei yleensä löydy luonnollista vastapuolta, joka olisi valmis hyväksymään markkinoilla muuten vallitsevan hinnan suurivolyymiselle kaupankäynnille. Tarve tehdä suuri kauppa synnyttää siis hintavääristymän, jota treidari voi käyttää hyväkseen ja samalla tarjota kuitenkin edullisemman hinnan kaupalleen vastapuolta hakevalle, kuin tämä muuten olisi saanut. Treidari joutuu sitten odottamaan vääristymän poikkeamista ennen kuin pääsee ottamaan tuottonsa. Vaikka hintatason muuttuminen johtaa yksittäisissä kaupoissa usein tappioon, tarjoaa tällainen "skalppaus" kuitenkin mahdollisuuksia keskimäärin kannattavalle treidaukselle, kun treidari on oppinut riittävällä varmuudella tunnistamaan tämän tyyppiset vääristymät. Millä tahansa markkinapaikalla on tällaisen treidauksen kannattavan volyymin raja kuitenkin rajoitettu eikä siitä riitä jaettavaa kaikille kiinnostuneille. Vain taitavimmat ja työtä tosissaan tekevät menestyvät tässäkin.
Paljon suurempivolyymisia ja myös hintapoikkeamiltaan suurempia tehottomuuksia on markkinoilla joukkokäyttäytymisen, markkinapsykologian, johdosta. Näitä ilmiöitä esiintyy kaikilla aikaväleillä sekunneista vuosiin. Kevään 2000 teknokupla on äärimmäinen esimerkki kuukausia (ehkä vuosiakin) kestäneen joukkokäyttäytymisen voimasta, mutta treidarit hakevat luonnollisesti mahdollisuuksiaan paljon nopeammista ilmiöistä. Ongelmana on vain sellaisten menettelyjen löytäminen, joilla itse pääsee hyötymään toisten virheistä eikä ajaudu siihen sopulilaumaan, jonka virheliikkeistä jotkut muut hyötyvät.
Jos markkinat olisivat tehokkaat, voisi tuoton odotusarvoa kasvattaa vain kasvattamalla samalla tappioiden riskiä vastaavassa suhteessa. Vaikka markkinoiden epätäydellisyys tarjoaakin periaatteessa mahdollisuuksia tuottojen kasvattamiseen ilman riskien vastaavaa lisääntymistä, onnistuu kuitenkin vain harva löytämään ja hyödyntämään näitä mahdollisuuksia. Tavattomasti useammat elättelevät katteetonta toivoa, että he ovat tällaisen menettelyn löytäneet. Tällainen usko voi elää pitkään, koska merkittävä osa riskeistä toteutuu harvoin - mutta silloin sitäkin suurempina. Muutenhan näillä harvinaisilla riskeillä ei olisikaan merkitystä. Pelkkä kokemusperäinen havainnointi ei kerro, liittyykö sovellettuun strategiaan tällaisia piileviä riskejä. Niistä voi saada paremman käsityksen vain ymmärtämällä tarkoin, mitä on tekemässä. Ymmärryksen saaminen edellyttää myös hyvää perehtymistä sijoittajaan kohdistuvien riskien luonteeseen sekä todennäköisyyslaskennankin hallintaa.
Olen edellä yrittänyt purkaa ongelmatiikkaa perusasioista lähtien. Tässä on varmasti monelle paljon tuttua, eikä tämä toisaalta anna vielä mitään konkreettista apua treidauksessa menestymään pyrkiville. Jatkossa toivon, että viemme tätä blogia yhdessä eteenpäin konkreettisempiin keisseihin perustuvien esimerkkien kautta. Jotain voisi ehkä kopioida viime päivien foorumikeskustelujen sisällöstä tänne. Annan nyt kuitenkin vuoron muille.