Friday, May 11, 2007

Markkinoiden epätäydellisyys ja TA

Vaikka tehokkaiden markkinoiden hypoteesi EMH onkin tuottanut erittäin hyödyllisiä ennusteita, jotka selittävät monipuolisesti markkinoiden toimintaa, on toisaalta runsaasti todisteita, että poikkeamat tehokkaista markkinoista ovat joissain tilanteissa hyvin merkittäviä.

Tehokkaiden markkinoiden pettäminen näkyy ehkä dramaattisimmin vuoden 2000 teknokuplan kaltaisissa äärimmäisissä tilanteissa. Mitään niin ratkaisevaa tietoa ei loppuvuodesta 1999 ja vuoden 2000 alkupuoliskolla tullut julkisuuteen, että se voisi selittää ensin kurssien rajun nousun ja sitten miltei yhtä nopean laskun. Vaikuttaakin selvältä, että kyse oli ketjukirjeiden tai pyramidihuijausten kaltaisesta tapahtumaketjusta, jossa tiedettiin kurssien olevan katteettomalla tasolla, mutta uskottiin silti, että ne tulevat vielä lähitulevaisuudessa jatkamaan nousuaan. Tämä usko riitti ylläpitämään nousua kauas fundaperusteisesti ymmärrettävien tasojen yläpuolelle.

Trendien esiintyminen onkin yksi ilmeisimpiä markkinoiden epätäydellisyyden ilmentymiä. Trendeille on helppo löytää monia muitakin uskottavia selityksiä, kuten yrityksiä koskevan tiedon asteittainen leviäminen sekä yritysten taipumus tiedottaa tilansa muutoksista vähittäin (yritysjohto ei ehkä itsekään usko muutoksien merkittävyyteen ensimmäisten tiedottamista vaativien tietojen varmistuttua, vaikka niiden ennustearvo on jo vahva).

Vastakkainen poikkeama tehokkaiden markkinoiden ennusteesta on osakekurssien heiluminen pitkään jonkun kurssitason tuntumassa siten, että luottamus kurssien palaamiseen tälle tasolle antaa mahdollisuuden kannattavaan treidaukseen.

Intuitiivisesti tuntuu hyvin uskottavalta että sekä tehokkaiden markkinoiden hypoteesin kanssa ristiriidassa olevia trendejä että heilahtelua jonkun tason tuntumassa todellakin tapahtuu. Näille intuitiivisesti uskottaville selityksille on yhteistä, että tuoreen kurssihistorian arvioidaan vaikuttavan sijoittajien päätöksiin. Myös trendien ja niiden välisten käänteiden muodostama aaltoilu on intuitiivisesti hyvin uskottava ilmiö. Kaikille näille ilmiöille vaikuttaisi kuitenkin olevan voimassa, että ne eivät toistu identtisinä eivätkä suuruudeltaan tarkoin ennustettavina. Yhtä puoliaaltoa seuraavan vastakkaisen heilahduksen voi olettaa olevan samaa luokkaa alkuperäisen liikkeen kanssa, mutta ei ole uskottavaa, että liikkeiden suuruudet olisivat toistuvasti jossain kiinteässä suhteessa toisiinsa. On mahdollista, että tämän suhteen todennäköisyysjakauma suosii jonkun tyypillisen arvon tuntumassa olevia suhteita, mutta edes tästä ei tiettävästi ole selviä todisteita. Joka tapauksessa on mahdotonta selittää uskottavasti monimutkaisempia sääntöjä, kuten Elliot Wave teorian mukaista käyttäytymistä esimerkiksi sijoittajapsykologialla. Useamman aallon pituinen historia on aivan liian monimutkainen syntyäkseen tuolta pohjalta toistuvasti samanlaisena.

Sijoittajien luottamus TA-menetelmiin voi synnyttää tehottomuutta markkinoilla, mutta yleisesti pätevä sääntö on, että osaavien sijoittajien usko johonkin TA-menetelmään heikentää aina tämän menetelmän toimivuutta. Muiden sijoittajien uskoa johonkin TA-menetelmään voi siis hyödyntää vain menettelemällä toisin kuin tähän menetelmään uskovat menettelevät. Mikään TA-menetelmä ei voi ylläpitää omaa toimivuuttaan.

Aronson esittää kirjassaan tuloksia 6402 eri TA-menetelmän testauksesta jaksolla 1.11.1980-1.7.2005. Nämä menetelmät ovat variaatioita muutamasta perusmenetelmästä ja niiden suuri määrä perustuu samaa perusmenetelmää edustavien variaatioiden määrään. Kaikissa menetelmissä pyritään jakamaan aika jaksoihin, joina ollaan longina tai shorttina SP500-indeksiin ja toiveena on siis löytää menetelmä, jolla tunnistetaan nousu- ja laskujaksot sattumaa paremmalla todennäköisyydellä. Ennusteiden perusteena on käytetty 24 eri aikasarjaa, jotka kuvaavat mm. muutamia yleis- ja toimialaindeksejä, NYSE:n volyymia, nousseiden ja laskeneiden osakkeiden lukumääräsuhteita sekä korkotuottoja. Näistä aikasarjoista on muodostettu erilaisia indikaattoreita, kuten kynnystasojen ylityksiä ja divergenssejä. Kaikille Aronsonin testaamille säännöille on yhteistä, että ne ovat lähellä menetelmiä, joita TA-harrastajat ovat pitkään käyttäneet. Niiden soveltaminen on suhteellisen helppoa myös ilman vaativaa ohjelmointia.

Aronsonin testien tulos oli vaatimaton. Parhaiten menestyneiden menetelmien tuottama tulos osoittautui niin vähäiseksi, että olisi ollut yllättävää, ellei yksikään tehoton menetelmä olisi menestynyt pelkällä onnella yhtä hyvin. Itse asiassa odotuksena oli, että joku olisi menestynyt sattumalta jopa paremmin, mutta tämä poikkeama oli kuitenkin täysin normaaleissa rajoissa.

Sille, että Aronsonin testit tuottivat negatiivisen tuloksen ei kuitenkaan voi panna kovin paljon painoa mm. seuraavista syistä:
- ennustamisen kohteena oli vain SP500-indeksi, joten tulos koskee vain sen kaltaista yleisindeksiä
- tarkastelu koski vain päivittäisiin avauskursseihin perustuvaa kaupankäyntiä, jotta kauppojen suorittaminen olisi voinut perustua edellisen päivän päätöskursseihin
- kaikissa menetelmissä oletettiin sijoittajan olevan jatkuvasti joko longina tai shorttina ja aina samalla panoksella. Neutraali tai pienempi positio tilanteissa, joissa indikaatio on marginaalinen, olisi saattanut vähentänyt hajontaa pienentämättä tuloksen odotusarvoa ja siten parantanut mahdollisuuksia saada tilastollisesti merkitseviä tuloksia.
- tarkastelujakso oli lähes 15 vuotta, joten vain sellaiset menetelmät saattoivat menestynä, joiden toimivuus kattoi valtaosan tästä jaksosta.
- lopulliset kriteerit olivat pelkistettyjä. Käytettävästä laajasta aineistosta olisi voitu muodostaa kehittyneen aikasarja-analyysin keinoin tunnuslukuja, jotka kuvaavat valittuja perusilmiöitä tehokkaammin ja jotka olisivat siten saattaneet tuottaa parempia tuloksia, vaikka kriteerin perusideat olisivat olleet täysin samoja. Valitut menetelmät eivät siis olleet optimaalisen tehokkaita trendien tai käänteiden indikaattoreita.
- Aronson oli ottanut mukaan 6402 menetelmää. Niiden joukossa oli suuri osa intuitiivisesti äärimmäisen epäuskottavia, sellaisiakin, joiden voisi paremmin uskoa tuottavan tappiota. Mitä suurempi on menetelmien määrä sitä pahemmin peittävät sattumalta hyvin menestyneet menetelmät joukkoonsa ne, jotka menestyvät hyvin todellisen arvonsa ansiosta.

On täysin korrektia tehostaa testausta rajoittumalla uskottaviin menetelmiin edellyttäen, että uskottavuudella ei ole yhteyttä aiempiin empiirisiin havaintoihin näiden menetelmien paremmuudesta ja että vastaavia testejä ei toisteta uusilla "uskottavilla menetelmillä" unohtaen aiempien testien menetelmät kokonaislukumäärästä merkitsevyyttä testattaessa. Myös aiempien empiiristen havaintojen vaikutus menetelmien valintaan heikentää vaikeasti arvioitavassa määrin testin tilastollista merkitsevyyttä, jos aiempien havaintojen aineistoa sisältyy myös tämän testin aineistoon tai jos siihen sisältyy esimerkiksi samalta jaksolta olevaa korreloivaa aineistoa, kuten DJIA dataa.

Edellä mainituista varauksista huolimatta voi Aronsonin testien katsoa antavan merkittävää indikaatiota siitä, että SP500-tyyppisen indeksin päivittäisiin avauksiin perustuva kaupankäynti ei onnistu kannattavasti TA:n avulla. Päivänsisäisestä treidauksesta se ei kerro juuri mitään ja vielä vähemmän yksittäisiin osakkeisiin kohdistuvasta kaupankäynnistä. Muissa tutkimuksissa onkin saatu vakuuttavimpia positiivisia tuloksia yksittäisten osakkeiden trendeihin perustuvasta kaupankäynnistä, kuten Perässähiihtäjän blogin http://sijoittajat.com/blogit/perassahiihtaja monista kirjoituksista voimme oppia.

Monday, May 7, 2007

Tilastollisen testaamisen menetelmistä ja ongelmista

Rungon tälle blogille muodostaa edellisen tapaan Aronsonin kirja, mutta esitän myös omia kommenttejani yrittäen kertoa, missä näin teen.

Tilastollisen testauksen perusajatus on, että testaus ei koskaan osoita jotain tiettyä mallia oikeaksi, mutta se voi osoittaa suurella varmuudella, että joku oletus on väärä tai parhaimmillaan, että historia on toistuvasti noudattanut tietyllä tarkkuudella jonkun mallin ennusteita. Jos tämä tarkkuus on hyvä suhteessa ennusteiden merkitykseen, antaa aineisto vahvaa tukea sille, että malli on testatuilta piirteiltään todellisuudenkaltainen ja käyttökelpoinen.

Kun testauksen kohteena ovat hyvin määritellyt sijoitusstrategiat, olivat ne sitten ta-pohjaisia tai fundamentteihin perustuvia, on ensimmäinen kysymys, voidaanko menetelmän katsoa toimivan paremmin kuin joku vertailukohta, kuten indeksisijoittaminen tai riskitön korko. Tällöin pyritään testaamisessa tutkimaan, voidaanko osoittaa valitulla varmuudella vääräksi ns. nollahypoteesi, jonka mukaan malli ei ole tuotoltaan vertailukohtaa parempi. Ellei tämä onnistu, katsotaan, että menetelmän hyödyllisyydestä ei ole todisteita. Jos menetelmä läpäisee tämän ensimmäisen testin, on perusteita ryhtyä arvioimaan, onko menetelmän lisätuotto niin suuri, että sen käyttöä voidaan pitää perusteltuna.

Testauksen ensimmäisen vaiheen perusideana on laskea todennäköisyys, että saavutetaan vähintään testattavan menetelmän tasoinen tuotto käytettäessä vertailukohteena olevaa menetelmää (nollahypoteesia). Tämä edellyttää sen arvioimista, kuinka paljon tuotot vaihtelevat satunnaisten ilmiöiden vaikutuksesta. Vaihteluiden suuruus joudutaan päättelemään historiatiedoista, mikä voi tapahtua joko muodostamalla suoraan historiatietojen perusteella vertailussa käytettävä tuottojen todennäköisyysjakauma tai käyttämällä jotain sopivaksi arvioitua jakaumaluokkaa, jolloin jakauman parametrit määritetään historiatiedoista. Kokemus on osoittanut, että esimerkiksi päivittäiset kurssimuutokset eivät noudata normaalijakaumaa, vaan suuret poikkeamat ovat yleisempiä kuin normaalijakaumassa, jonka hajonta on sama. Täten esimerkiksi normaalijakauma ei yleensä sovi testaamiseen, vaan tarvitaan jakaumaa, jolla on "paksummat hännät".

Aronson kuvailee kaksi menetelmää luoda todennäköisyysjakauma suoraan historiatiedoista ja käyttää niitä kirjassa esiteltävissä testeissä. Kumpikin näistä menetelmistä perustuu oletukseen, että peräkkäisten jaksojen (päivien) muutoksia voidaan pitää riippumattomina. Suorat tilastolliset analyysit ovat osoittaneet, että peräkkäisten päivien muutoksien väliset korrelaatiot ovat hyvin heikot, joten virhe ei tältä osin ole suuri. Vielä olennaisempaa on, että korreloimattomuus kaikilla jaksoilla voidaan ottaa nollahypoteesin ominaisuudeksi, joten tehty oletus ei vääristä nollahypoteesille laskettua hajontaa. Kun testattavat menetelmät perustuvat kuitenkin poikkeuksetta joidenkin korrelaatioiden hyväksikäyttöön, on oletettavissa, että saatujen tulosten hajonta kasvaisi, jos testausaineisto voitaisiin saada sisältämään vastaavia mutta vaikutuksen suunnan osalta satunnaisia korrelaatioita. Täten on todennäköistä, että nollahypoteesi tulee hylätyksi ainakin hieman liian herkästi eli on liian suuri mahdollisuus todeta, että joku menetelmistä on hyödyllinen silloinkin, kun kaikki ovat kyvyttömiä antamaan odotusarvoisesti lisätuottoa. Tätä viimeisintä näkökohtaa ei Aronson näyttäisi tuovan kirjassaan esille.

Suoraan historia-aineistosta muodostetulla todennäköisyysjakaumalla on myös heikkoutensa, kun testataan pieniä todennäköisyyksiä, sillä historia-aineistosta saadaan aina hyvin harvoja esimerkkejä jakauman äärimmäisestä hännästä ja jakaumalla on myös aina joku äärimmäinen raja, jota aineiston perusteella ei ylitetä. Mahdolliset tulevaisuudet sisältävät aina myös sellaisia muutoksia, joiden kaltaisia ei koko historia-aineistossa esiinny. Tällaiset tapahtumat ovat luonnollisesti epätodennäköisiä, mutta niillä voi olla huomattava vaikutus testauksen tuloksiin jos yksittäiset poikkeukselliset tapahtumat voivat vaikuttaa merkittävästi koko testausjakson tuottoon. Muodoltaan perusteltu jatkuva jakauma voisi tällöin antaa luotettavampia tuloksia kuin suoraan historiatiedoista muodostettu diskreetti jakauma. Jos yhden jakson muutoksen todellisen jakauman hännät ovat erityisen paksut siinä mitassa, että ne kasvattavat jakauman hajonnan hyvin suureksi, antaa äärellisestä historia-aineistosta generoitu jakauma pahoin vääriä tuloksia. Tällaisten epävarmuustekijöiden vaikutuksia voi tutkia vertailemalla erilaisia mallijakaumia. Tähän ongelmaan Aronson ei kiinnitä huomiota.

Erityisen paljon huomiota saa Aronsonin kirjassa ongelma, joka syntyy käytettäessä samaa historiatietoa parhaitten menetelmien valitsemiseen suuresta joukosta mahdollisia menetelmiä (ns. data mining) sekä näin löydettyjen menetelmien tehokkuuden testaamiseen. On selvää, että satunnaisten tekijöiden vaikutuksesta löytyy monien samanarvoisten menetelmien joukosta aina joku, jonka tuotto on selvästi keskimääräistä parempi. Täten on joko perustettava valinta eri aineistoon kuin testaus tai arvioitava, kuinka suuri vaikutus on parhaan menetelmän valinnalla. Kun aineisto on rajallista, löytyy aidosti hyvä menetelmä sitä varmemmin, mitä suurempaa aineistoa käytetään, joten tältä kannalta kannattaa käyttää koko aineistoa molempiin tarkoituksiin, vaikka se vaikeuttaakin testaamista.

Kun yksittäisten menetelmien tuottojen todennäköisyysjakauma on tiedossa, on suhteellisen helppo määrittää jakauma kuvaamaan parhaan menetelmän valinnan tuottamaa jakaumaa, jolloin merkitsevyystesti voidaan tehdä tämän jakauman perusteella. Menettelyn ongelmana on kuitenkin se, että testattavien menetelmien määrän ollessa suuri, kasvaa tuotto, joka miltei väistämättä saadaan valitsemalla arvottomistakin menetelmistä sattumalta paras. Se kasvaa niin suureksi, että jo pienempäänkin oltaisiin tyytyväisiä, jos se tiedettäisiin todelliseksi eikä valinnan harhaksi. Täten aidosti hyödylliset menetelmät saattavat hukkua sattumalta hyviä tuloksia antavien joukkoon, eikä voida tietää, onko sellaisia testattavassa joukossa vai ei. Koska ongelma kasvaa menetelmien lukumäärän kasvaessa, voidaan tätä ongelmaa lieventää rajaamalla testattavaa joukkoa jollain perusteella, joka on täysin riippumaton testauksessa käytettävästä aineistosta. Valinta ei siis saa perustua aikaisempaan samasta aineistosta saatuun tietoon.

Testaamiseen liittyy myös tarkastelujaksoa koskeva vakava dilemma. Tilastolliselta kannalta testi on sitä tehokkaampi, mitä pitempää jaksoa tarkastellaan. Pitkää jaksoa tarvitaan myös, jotta siihen sisältyisi mahdollisimman monipuolisesti erilaisia markkinatilanteita. Pitkän tarkastelujakson olennaisena ongelmana on kuitenkin se, että markkinoiden muutoksista osa on pysyviä. Esimerkiksi siirtyminen meklareiden kautta tapahtuneesta pörssisalin lattialla tehdystä kaupankäynnistä nykyiseen online-kauppaan on aivan varmasti muuttanut paljon. Siten on syytä epäillä, että kauemmasta historiasta saadut tiedot eivät paranna tulosten merkitsevyyttä tilastolakien mukaisesti, vaan päinvastoin heikentävät sitä tuomalla aineistoon nykyisyydestä ja tulevaisuudesta poikkeavaa materiaalia. Jakson valintaan liittyvään dilemmaan ei Aronson mielestäni kiinnitä riittävästi huomiota, vaikka hän sen olemassa oon tuokin esille.

Aronsonin kirja kuvailee testaamista kohtalaisen yksityiskohtaisesti, ei kuitenkaan niin yksityiskohtaisesti, että vain sen perusteella olisi mahdollista rakentaa vahvoja testejä ilman muualta hankittuja välineitä tai osaamista. Monet käytännön testaamisen kannalta olennaiset näkökohdat tuodaan hyvin esille, mutta kuten edellä olen todennut, on tärkeitä näkökohtia jäänyt myös vajavaisen esityksen varaan.

Tuesday, May 1, 2007

Voiko teknillinen analyysi perustua tutkimukseen - ja pitäisikö sen?

Olen viime päivinä paneutunut David Aronsonin kirjaan "Evidence-Based Technical Analysis". Yritän nyt muutamassa blogikirjoituksessa esittää arvioni kirjasta sekä sen synnyttämiä omia ajatuksiani.

Kirjan tekijän lyhyt esittely löytyy kirjan päällyksestä: "DAVID ARONSON is an adjunct professor at Baruch College, where he teaches a graduate- level course in technical analysis. He is also a Chartered Market Technician and has published articles on technical analysis. Previously, Aronson was a proprietary trader and technical analyst for Spear Leeds & Kellogg. He founded Raden Research Group, a firm that was an early adopter of data mining within financial markets. Prior to that, Aronson founded AdvoCom, a firm that specialized in the evaluation of commodity money managers and hedge funds, their performance, and trading methods." Itse kirjassa hän kertoo historiastaan teknillisen analyysin käyttäjänä - ensin menestyksellisenä ja sitten markkinoiden muututtua vähemmän menestyneenä. Omia kokemuksiaan tuntuu Aronson pitävän yhtenä perusteena nykyiselle kiinnostukselleen. Akateeminen tutkinto filosofiasta näkyy kirjan tieteenfilosofiaa käsittelevässä luvussa.

Kirjan sisällön voi jakaa neljään osaan. Ensin kirjassa käytetään noin 150 sivua sen todistelemiseen, että myös TA:ta on lähestyttävä systemaattisen kvantitatiivisen testaamisen kautta ja että tätä välttelevä subjektiivinen TA on miltei varmasti vain itsepetosta, jonka mahdolliset menestykset ovat vain sattumaa tai muuta harhaa TA:n kannalta. Seuraavaksi käsitellään 160 sivun verran tilastollista testausta ja erityisesti sen soveltamista menetelmiin, jotka on löydetty samojen testien avulla käyttäen "data mining" -menetelmiä. Tehokkaiden markkinoiden hypoteesin heikkouksia ja näiden heikkouksien syitä käsitellään lähes 60 sivua. Viimeisessä kokonaisuudessa sovelletaan aiemmin esiteltyjä tilastollisia menetelmiä SP500-indeksin ennustamiseen testaten 6402 eri indikaattorin toimintaa 25 vuoden jaksolla - päätyen siihen, että todisteita yhdenkään näistä toimimiselle ei löydy.

Aronson käyttää paljon vaivaa kertoessaan, kuinka harvoin sellaiset päättelyt toimivat, joiden toimivuutta ei ole tieteen käytännössä hyväksytyillä menetelmillä testattu. Esimerkiksi lukemattomat TA:n käyttäjät toimivat niin epäsystemaattisesti ja täsmentämättömin päätöksentekomenetelmin, että jälkikäteen on mahdotonta sanoa oliko menetelmistä mitään hyötyä. Sekin, että sijoittamisen lopputulos on ollut hyvä, voi olla yhtä hyvin toteutunut TA:sta huolimatta kuin sen ansiosta. Useimmiten ei menetelmien käyttäjä edes tiedä, ovatko hänen tuloksensa olleet yhtään paremmat kuin tekemällä täysin satunnaisesti kaikki ne päätökset, joihin TA:sta on haettu tukea. TA:n menetelmiä, joita ei ole määritelty niin yksityiskohtaisesti, että niiden soveltaminen voidaan jättää tietokoneille nimitetään "subjektiivisiksi TA-menetelmiksi". Objektiivisia ovat puolestaan menetelmät, jotka eri henkilöt toteuttavat identtisesti ja jotka ovat myös toteutettavissa tietokoneella ilman inhimillisen päätöksenteon tukea.

Selkeän esimerkin puutteelliseen analyysiin perustuvan päättelyn heikkouksista tarjoaa vuodesta 2003 jatkunut vahva kurssien nousukausi. Tällä kaudella ovat tuottaneet miltei kaikki sijoitusstrategiat, joiden osakepaino on ollut korkea, ainakin jos osakkeet tai osakeindeksit ovat Euroopasta tai sopivilta kehittyviltä markkinoilta. Erityisesti vivutetut sijoitukset osakkeisiin tai indekseihin ovat voineet tuottaa erittäin hyvin. Päätöksenteossa on saatettu käyttää joitain TA:n menetelmiä, mutta tällä ei ole mitään todistusvoimaa, jos samat tulokset saadaan jo parin sopivasti ajoitetun linjauksen perusteella.

Aronson käsittelee sangen hyvin tieteellisen päättelyn periaatteita, mutta ei mielestäni ole aivan yhtä täsmällinen soveltaessaan näitä periaatteita. Hän viittaa esimerkiksi osaan tämän kappaleen loppuosan johtopäätöksistä, mutta jättää osan niistä esittämättä. Subjektiivista TA:ta ei voida testata helposti. Siksi luottamus subjektiivisiin menetelmiin jääkin miltei aina katteettomaksi toiveajatteluksi. Tämä ei kuitenkaan ole täysin väistämätöntä, sillä subjektiivisen TA:n käyttäjä voi tehdä huolellisesti muistiinpanoja tekemistään päätöksistä. Jos näihin muistiinpanoihin on kirjattu päätösten perusteet, mitä olisi päätetty ilman TA:n tukea sekä tulevaisuutta koskevat odotukset tavalla, jonka toteutuminen voidaan jälkikäteen verifioida, on mahdollista analysoida, onko TA:sta ollut apua. Hyvin olennaista on, että päätöksistä erotetaan jo tekovaiheessa se, mikä TA:n vaikutus niihin on ollut. Täten on mahdollista verrata TA:n mukaisen päätöksen tuottoa vaihtoehtoiseen ratkaisuun. Molempien vaihtoehtojen seurantaa pitäisi jatkaa aina positioiden sulkemiseen saakka, sillä sulkeminen voi eri vaihtoehtoissa tapahtua eri aikaan. Ilman tällaisia vertailuja ei TA:n käyttäjä pysty aidosti arvioimaan päätöksentekoaan eikä kehittämään sitä tuottavampaan suuntaan. Aronson on vieläkin tylympi suhtautumisessaan subjektiiviseen TA:han ja tässä on mielestäni pientä epäloogisuutta.

Tieteellisten menetelmien perusominaisuus on, että ne eivät koskaan todista mitään teoriaa tai mallia oikeaksi. Sen sijaan ne voivat osoittaa joitain vaihtoehtoisia teorioita suurella varmuudella vääriksi. Ne voivat myös osoittaa suurella varmuudella, että todellisuus ei poikkea jostain teoriasta kovin paljon eli teoria on tietyllä tarkkuudella ja tietyissä rajoissa totuudenkaltainen. Täten on jo vuosisatoja kertynyt laajaa ja täsmällistä todistusaineistoa osoittamaan, että Newtonin mekaniikka kuvaa suurella tarkkuudella kappaleiden liikettä kappaleiden koon ollessa niin suuri että mittaaminen on ollut perinteisin keinoin mahdollista ja nopeuden ollessa niissä rajoissa, jotka on näin suurille kappaleille voitu laboratorio-oloissa antaa. Samoin on Newtonin lakien perusteella voitu laskea tarkkoja ennusteita taivaankappaleiden radoille. Nämä havainnot eivät kuitenkaan ole osoittaneet, että Newtonin yhtälöt olisivat totta eli täysin tarkkoja, mitä ne eivät olekaan. Toisaalta kvanttimekaniikka ja toisaalta Einsteinin erityinen ja yleinen suhteellisuusteoria antavat uusissa tilanteissa ennusteita, jotka poikkeavat selvästi Newtonin mekaniikasta ja ovat oikeampia.

Aronsonin kirjan kolme ensimmäistä lukua aina sivulle 163 kuluvat edellä mainittujen periaatteellisten ja tieteenfilosofisten kysymysten käsittelyyn. Niiden tavoitteena on saada epäilijät uskomaan, että TA tarvitsee objektiivisuutta ja tieteen menetelmiä kehittyäkseen ja muodostuakseen aidosti hyödylliseksi, mutta nämä luvut antavat vain alustavia viitteitä sille, kuinka tieteen menetelmiä voidaan TA:n kehittämisessä käyttää. Monet lukijat ovat netistä löytyneiden arvioiden mukaan pitäneet näitä lukuja hyvin arvokkaina, ja niin ne varmaan ovatkin jokaiselle, jonka perusasenne objektiivisuuden välttämättömyyteen muuttuu tai joka oppii niistä, mitä tieteellinen toimintamalli tarkoittaa. Niillekin, jotka eivät tätä todistelua enää tarvitse, löytyy luvuista mielenkiintoisia havaintoja, mutta tuskin suoranaista hyötyä.

Seuraavassa blogissani jatkan siitä, mitä Aronson kertoo TA-menetelmien tilastollisesta testaamisesta ja esitän joitain omia kommenttejani aiheesta.

Friday, January 19, 2007

Tuoton perusta on tiedettävä

"Ellet tiedä, minne olet menossa päädyt juuri sinne."

Treidauksessakin päätyy juuri sinne, minne markkinat sattuvat viemään, ellei treidaaja tiedä, mitä on tekemässä ja mistä on hakemassa voittoa. Monet TA:n menetelmät ja muut treidaustavat voivat tuntua tuottoisilta aikansa, mutta eivät ole sitä koskaan pitemmän päälle, ellei treidaaja tiedä, miksi hän ansaitsee ja mistä hän havaitsee, että valittu toimintatapa ei vallitsevassa markkinatilanteessa toimi.

Markkinoilla on pitkäjänteisempiä sijoittajia ja treidareita. Kaikki nämä yhdessä jakavat sitä lisäarvoa, mitä pörssiyhtiöt ja muut sijoituskohteet kokonaisuutena tuottavat, kun tuotoista on ensin vähennetty välittäjien osuudet ja muut kulut. Ilman treidaajia markkinoiden likviditeetti olisi riittämätön ja hinnanmuodostus tehottomampaa. Tämä muiden markkinaosapuolten tehottomuus on yhtenä lähteenä treidareiden tuotoille, mutta välittäjien osuus ja kulut voivat hyvinkin ylittää nämä tuotot. Kaikki tai suurin osa menestyvien treidareiden tuotoista tulee siten vähemmän menestyviltä treidareilta, jolloin treidaaminen kokonaisuudessaan on nollasummapeliä tai jopa miinussummapeliä.

Tehokkailla markkinoilla ei treidaus voi tuottaa - tämä on suora seuraus tehokkaiden markkinoiden määritelmästä. Treidaus hakee siten tuottoaan markkinoiden tehottomuuksista.

Yksi markkinoille aina ominainen tehottomuus syntyy rajallisesta likviditeetistä. Kun joku sijoittaja haluaa ostaa tai myydä suuren erän jotain sijoituskohdetta, ei yleensä löydy luonnollista vastapuolta, joka olisi valmis hyväksymään markkinoilla muuten vallitsevan hinnan suurivolyymiselle kaupankäynnille. Tarve tehdä suuri kauppa synnyttää siis hintavääristymän, jota treidari voi käyttää hyväkseen ja samalla tarjota kuitenkin edullisemman hinnan kaupalleen vastapuolta hakevalle, kuin tämä muuten olisi saanut. Treidari joutuu sitten odottamaan vääristymän poikkeamista ennen kuin pääsee ottamaan tuottonsa. Vaikka hintatason muuttuminen johtaa yksittäisissä kaupoissa usein tappioon, tarjoaa tällainen "skalppaus" kuitenkin mahdollisuuksia keskimäärin kannattavalle treidaukselle, kun treidari on oppinut riittävällä varmuudella tunnistamaan tämän tyyppiset vääristymät. Millä tahansa markkinapaikalla on tällaisen treidauksen kannattavan volyymin raja kuitenkin rajoitettu eikä siitä riitä jaettavaa kaikille kiinnostuneille. Vain taitavimmat ja työtä tosissaan tekevät menestyvät tässäkin.

Paljon suurempivolyymisia ja myös hintapoikkeamiltaan suurempia tehottomuuksia on markkinoilla joukkokäyttäytymisen, markkinapsykologian, johdosta. Näitä ilmiöitä esiintyy kaikilla aikaväleillä sekunneista vuosiin. Kevään 2000 teknokupla on äärimmäinen esimerkki kuukausia (ehkä vuosiakin) kestäneen joukkokäyttäytymisen voimasta, mutta treidarit hakevat luonnollisesti mahdollisuuksiaan paljon nopeammista ilmiöistä. Ongelmana on vain sellaisten menettelyjen löytäminen, joilla itse pääsee hyötymään toisten virheistä eikä ajaudu siihen sopulilaumaan, jonka virheliikkeistä jotkut muut hyötyvät.

Jos markkinat olisivat tehokkaat, voisi tuoton odotusarvoa kasvattaa vain kasvattamalla samalla tappioiden riskiä vastaavassa suhteessa. Vaikka markkinoiden epätäydellisyys tarjoaakin periaatteessa mahdollisuuksia tuottojen kasvattamiseen ilman riskien vastaavaa lisääntymistä, onnistuu kuitenkin vain harva löytämään ja hyödyntämään näitä mahdollisuuksia. Tavattomasti useammat elättelevät katteetonta toivoa, että he ovat tällaisen menettelyn löytäneet. Tällainen usko voi elää pitkään, koska merkittävä osa riskeistä toteutuu harvoin - mutta silloin sitäkin suurempina. Muutenhan näillä harvinaisilla riskeillä ei olisikaan merkitystä. Pelkkä kokemusperäinen havainnointi ei kerro, liittyykö sovellettuun strategiaan tällaisia piileviä riskejä. Niistä voi saada paremman käsityksen vain ymmärtämällä tarkoin, mitä on tekemässä. Ymmärryksen saaminen edellyttää myös hyvää perehtymistä sijoittajaan kohdistuvien riskien luonteeseen sekä todennäköisyyslaskennankin hallintaa.

Olen edellä yrittänyt purkaa ongelmatiikkaa perusasioista lähtien. Tässä on varmasti monelle paljon tuttua, eikä tämä toisaalta anna vielä mitään konkreettista apua treidauksessa menestymään pyrkiville. Jatkossa toivon, että viemme tätä blogia yhdessä eteenpäin konkreettisempiin keisseihin perustuvien esimerkkien kautta. Jotain voisi ehkä kopioida viime päivien foorumikeskustelujen sisällöstä tänne. Annan nyt kuitenkin vuoron muille.