Statistical Auditing (9)

Isoleren verdient isolement

Statistical auditing kent een aantal weerbarstige thema's; ik noem: 'uitbreiden van steekproeven', 'professional judgment', 'statistische steekproef of deelwaarneming' en ook 'isoleren en corrigeren'.

Ed Broeze

In mijn negentienjarige praktijk als statistisch adviseur bij de Algemene Rekenkamer ben ik vaak geconfronteerd met een controle waarin een 'incidentele', een 'niet-representatieve' of een 'heel uitzonderlijke' fout was gevonden. Zo uitzonderlijk, dat de controlerend accountant van mening was dat je die fout mocht 'isoleren'.

Of te wel: het ophogen (extrapoleren) van de gevonden fout naar de totale te controleren massa, was niet nodig. Immers, iets unieks heeft per definitie een ophogingsfactor van 1.

Analoog ging het met een 'systematische fout', zoals een tijdelijke fout in de programmatuur. Als je al die fouten kunt isoleren (en indien nodig/ mogelijk) corrigeren, weet je zeker dat er niet meer van die fouten in de massa zitten, dus waarom zou je de zo gevonden fout extrapoleren?

Deze redenering is al jaren en tot op de dag van vandaag onuitroeibaar. Dit ondanks de vaststelling dat de elementen in de steekproef aselect zijn getrokken en dat de weg van steekproef naar massa (naast het kansmodel waarmee wordt gerekend) is gebaseerd op die aselectheid. Het om wat voor reden dan ook skippen van elementen, doorbreekt de aselectheid en daarmee een geldige ophoging.

Burghstahler en Jiambalvo (B&J) werken in 1986 in The Accounting Review 61(2) deze vaststelling uit in een 'balletjes, blokjes en andere vormen in een vaasmodel'.

Zij zeggen: laten in een steekproef uit de vaas zwarte balletjes voor correcte items staan en rode balletjes en een rood blokje voor foute items.

Van het rode blokje is vast te stellen (meent de accountant) dat het uniek is. Niet meetellen van het rode blokje voor het schatten van (ophogen naar) het aantal rode vormen in de vaas betekent echter dat je zeker moet weten dat er niet ook rode piramidetjes, kegeltjes, schijfjes, sterretjes etc. in de vaas zijn.

Niet meetellen van het blokje laat dus al die andere mogelijke vormen buiten schot en leidt daarmee in het algemeen tot onderschatting van de werkelijke fout. Met als gevolg een te grote kans op onterechte acceptatie van een verantwoording.

De auteurs memoreren: "A fundamental assumption underlying audit sampling is that items are, for sampling purposes, homogeneous in the sense that observation of some subset of items is useful for drawing conclusions about the remainder of the whole population." (pagina 263)

Isoleren en niet ophogen is strijdig met die homogeniteits-aanname, aldus B&J.

Wheeler, Dusenbury & Reimers trachten in 1997 in Decision Sciences 28(2) de isoleringsmisvatting te redden door te laten zien dat een vertekenende schatter (zoals door isoleren ontstaat) wel preciezer kan zijn. En als dat zo is, dat je met die grotere precisie een wenselijker schatter hebt. Maar zij laten helaas buiten beschouwing dat die vertekening een onderschatting van de fout inhoudt.

Verontrustend is dat Allen & Elder in 2005, in Auditing, a Journal of Practice and Theory 24(2) melden dat in de periode 1994-1999 het ophogen van fouten minder gebruikelijk is geworden voor de big five-firma's in hun studie. De non-big five zijn wel vaker tot ophogen overgegaan. Zeer verontrustend is hun bevinding dat 'immaterialiteit' van een fout (ook) als argument voor niet-ophogen wordt gebruikt.

Verontrustend is ook dat ik nog zeer onlangs betrokken was in een discussie of isoleren tot niet ophogen mocht leiden. Die discussie is helaas verklaarbaar door het meest verontrustende, alleen al om zijn hardleersheid: ISA 530 in A19 (in 2008!) geeft ruim baan aan isoleren.

Het zal u, lezer, niet ontgaan zijn dat ik weinig over corrigeren heb gesproken. Wellicht is u ook niet ontgaan dat de angel ook niet in het corrigeren zit, maar in het isoleren: de beslissing om een fout niet op te hogen.

En dan snapt u ook dat er in het koppel 'Isoleren en corrigeren' mogelijk zelfs een verdwijntruc kan zitten: als we die geïsoleerde fout corrigeren, hebben we toch ook niets meer op te hogen?!

Maar u snapt ook dat je zo'n statement alleen in een column kan maken.

In een volgende column wil ik graag ingaan op wat met isoleren en corrigeren verder fout kan gaan en op wat wél kan.

Stuurgroep Statistical Auditing

De Stuurgroep Statistical Auditing is verbonden met het Limperg Instituut en heeft als doel 'het bevorderen van het correcte (effectief en efficiënt) gebruik van statistische methoden en technieken bij accountantscontroles en daarmee verwante controles op financiële verantwoordingen en overzichten'.

Ed Broeze is lid van de stuurgroep Statistical Auditing van het Limperg Instituut. Hij promoveerde in 2006 op de dissertatie getiteld 'Validation of Risk Assessment in Auditing' en werkte indertijd bij de Algemene Rekenkamer.

Gerelateerd

18 reacties

Ed Broeze

Mijn column maakt veel los; dat juich ik en ik denk ook de gehele stuurgroep, zeer toe. Toch zal ik hoofdzakelijk reageren op wat direkt op mijn column betrekking heeft, hoezeer ik het herhaaldelijk breken van een lans voor correcte toepassing van statistiek ook waardeer. Mijn volgende column gaat in op wat wel kan. Daar slaat artikel Bart Braun ook op. Dat is geschreven n.a.v. het ‘Delft-onderzoek’ van Hendriks et al en zoals gepresenteerd door Meester op 280508. Dit onderzoek was overigens gedaan op verzoek van de Rekenkamer-statistici, waarvan ik er toen één was. Dus zie mijn volgende column. Bij Gerard en Hein: Buitenhuis koppelt homogeniteit/ heterogeniteit gedeeltelijk aan de mate waarin posten in de te controleren populatie uiteenlopen in grootte en daarbij (voor het andere deel) aan dat zij uit verschillende processen voortkomen. Dat dat er niet toe doet is omdat alle posten voor de steekproef gelijk zijn: bij de geldeenheden methode worden ze alle met een kans evenredig met hun omvang getrokken. Het kan zijn dat deelpopulaties systematisch uiteenlopen (‘heterogeen’ zijn). Het kan dan lonen om de steekproef systematisch te verdelen over de deelpopulaties, die dan in statistische termen ‘strata’ heten. Binnen de strata heb je dan te maken met minder ‘heterogene’ data en dit komt de nauwkeurigheid van schattingen ten goede. Maar, Hein dit is wat anders dan isoleren in de betekenis van niet mee laten doen in het ophogen, of het ophogen doelgericht beperken, zoals in mijn column bedoeld. En overigens denk ik: omdat alles met alles samenhangt, mag je aannemen dat een correcte omgang met (of moet ik zeggen: ‘afstand houden van’) isoleren van fouten ‘vanzelf’ tot verbetering in omgaan met betrouwbaarheid en onnauwkeurigheid van de statistische schattingen leidt (inclusief de invloed die onderweg aanpassen van de spelregels heeft). En beperk me dus tot de ‘enge’ inhoud van mijn column.

Hein Kloosterman

Op 20 maart j.l. plaatste Gerard van Herk een paar opmerkingen en stelde hij een paar vragen. Ik ga even een paar punten bij langs om de discussie (netjes) af te ronden. - het isoleren van fouten komt erop neer dat de fout wordt toegerekend aan een deelpopulatie. De kleinst mogelijke deelpopulatie is de post (= de boeking) waardoor de getrokken en onjuist bevonden geldeenheid zich bevindt. - ik ben het eens met de stelling dat klakkeloos isoleren niet mag. Ik vind dat isoleren, toerekenen aan een deelpopulatie dus, wel mag, maar wel onder voorwaarden. een van de voorwaarden is dat de fouten die men wil isoleren daadwerkelijk aan een deelpopulatie kunnen worden toegerekend. Zoals ik al eerder stelde, is het bewijs daartoe leveren arbeidsintensief. Voor de volledigheid wil ik even opmerken dat als een aangetroffen fout zich in de deelpopulatie boekingen bevindt die met 100% kans is getrokken, er geen extrapolatie plaatsvindt naar het niet-integraal onderzochte deel van de totale populatie. - Cell Sampling is niet hetzelfde als stratificatie. De trekkingstechniek zorgt wel automatisch voor een deelpopulatie: alle posten (= boekingen) groter dan of gelijk aan twee maal de Cell-grootte worden getrokken. - materialiteit (en dus ook controletolerantie) wordt omgeven door een zekere mystiek. De vraag is (kip en ei probleem) volgt materialiteit uit de hoeveelheid werk die men overheeft voor de controle, of volgt de hoeveelheid werk uit de materialiteit? Het citaat van Ten Wolde hierover voegt niets toe, zeker niet aan de discussie over "isoleren of niet?". - De omschrijving in het citaat van Westra is niet goed. Accountantcontrolerisico is de kans op ten onrechte goedkeuren van een foute populatie. Een foute populatie is er een met (totaal aan) fouten ter grootte van de materialiteit. Men pleegt in de rekensommen dit risico te stellen op 5%. De kwantificering van "Beperkte mate van zekerheid" kan ik niet plaatsen. Uit de gevallen waarin die "beperkte mate" wordt gehanteerd, valt te concluderen dat men eveneens die 5% kan hanteren maar er achteraf geen uitspraak kan worden gedaan over de volledigheid van de transacties. Op dat punt is er dan sprake van een "onbepaalde bovengrens" die niet wordt teruggedrongen door "evidence". - het achteraf hannessen met statistische betrouwbaarheid en nauwkeurigheid heeft in beginsel niets met het "isoleren of niet" probleem te maken. - Het Tax Control Framework omschrijft het controlerisico niet scherp genoeg. Accountantscontrolerisico is de kans op ten onrechte goedkeuren van een populatie met een fout (totaal aan fouten) ter grootte van de materialiteit. Zo wordt meestal een "fout van de tweede soort" omschreven. - "Redelijke zekerheid" is een accountantsbegrip dat in de loop der tijd (onder meer door Stringer voor het AICPA) is omschreven met behulp van statistische onbetrouwbaarheid en materialiteit (of controletolerantie). - In veel protocollen wordt materialiteit in een percentage uitgedrukt. Die valkuil komt in een latere column nog aan de orde.

Gerard van Herk, nu echt voor de laatste keer !!

Never say Never, Hein, (Blijkbaar is het usance op dit forum persoonlijk om te gaan met onderwerpen.). Dank voor je aanvulling! Alleen nu ben ik de kluts kwijt. De vraag was niet of deelpopulaties kunnen worden toegepast maar of het achteraf fouten isoleren waardoor de grenzen van vooraf bepaalde materialiteit, zekerheid en betrouwbaarheid worden overschreden en vervolgens accountants hun steekproef (en/of controlewerkzaamheden) niet uitbreiden door de beugel kan. 9 maart was je het nog met ons eens en 18 Maart niet meer het lijkt wel politiek gedraai. Fijn dat je de “toelaatbare fout” (materialiteit, nauwkeurigheid) en de steekproeffout (?) of statistische onbetrouwbaarheid (?) (Je bedoelt zeker de gekozen maat van zekerheid en betrouwbaarheid (wiskundig complement van de kans op een fout van de eerste soort (Het ten onrechte ervan uitgaan dat een populatie geen materiele fouten bevat)) verduidelijkt hebt. Ik ben wel nieuwsgierig of je niet Stratificatie (een populatie verdelen in deelpopulaties van steekproefeenheden met overeenkomstige eigenschappen (meestal waarde).) bedoelt in plaats van Cell Sampling ( een populatie wordt onderverdeeld in een aantal intervallen met vaste breedte, cellen genoemd. Binnen elke cel wordt aselect een waarde-eenheid getrokken.). Ook dat spelen met materialiteit en het steekproefrisico intrigeert mij. Ja materialiteit de pijler van de assurance opdrachten. Volgens “Statistiek voor Accounting van P.Touw en L. Hoogduin” (Ik citeer even; “In de praktijk kom je verschillende vuistregels tegen. Ieder accountantskantoor heeft zijn eigen formule om de controletolerantie te bepalen.de bottom line is dat de tolerantie moet worden bepaald op een maatschappelijk aanvaardbaar niveau.”) geldt echter dat hier blijkbaar geen wetenschappelijke basis of uitgebreid onderzoek over voorhanden is (“vuistregels”) en dat dit begrip niet uniform voor de hele beroepsgroep geldt ( “Ieder …”). Ik kan het echt niet laten een ander stukje uit dit boek te vermelden namelijk; Citaat Ten Wolde, Waarom zou een beroepsgroep zich druk maken over de dikte van een schoenzool aan het ene been (Bayessaans of klassiek) van het risicoanalysemodel, zolang het andere been (Nauwkeurigheid (veranderd door mij was; tolerantie)) nog in een berevel is gehuld (MAB sept 1989).” Ik citeer nu even uit “Compendium van de Accountancy wet- en regelgeving door B.A.J. Westra, ”een redelijke zekerheid duidt op een risico van 5% a 10% dat het accountantsonderdeel onbetrouwbaar is. Bij een beperkte zekerheid zou de kans rond de 40% liggen. De kans dat de beoordelingsverklaring onbetrouwbaar is, is dan even groot als de kans dat de verklaring wel betrouwbaar is. De meeste gebruikers (en accountants zijn zich dat waarschijnlijk niet of nauwelijks bewust.” Ik zou dus nogmaals willen opmerken zeer terughoudend te zijn met het gedurende de analyse van steekproefresultaten zelf te gaan spelen met statistische eenheden. Ik citeer wederom uit Statistiek voor Auditing en Controlling, “ Met achteraf variëren van betrouwbaarheid begeven we ons op glad ijs”. Ik denk dat even goed geldt voor materialiteit en zekerheid. Laten we nu eens kijken hoe de belastingdienst dit verwoordt in Business control framework, Opzet en bestaan tax control framework Testen werking tax control framework, Klantbehandeling, convenanten en TCF 13 21 maart 2008 “4.5.1. De betekenis van materialiteit Vanuit kostenoogpunt kan niet elke fout voorkomen worden. Het is echter wel zaak dat er niet te veel fouten onopgemerkt blijven. In deze context worden in de praktijk de termen betrouwbaarheid en materialiteit gebruikt. Materialiteit is de kwantitatieve norm (uitgedrukt in een geldbedrag) die nodig is om te bepalen wanneer een te controleren populatie goed genoeg is. Dat is het geval als de som van de fouten dit geldbedrag niet overschrijdt. De materialiteit dient dus als goedkeuringsgrens voor de controle. Daarmee is de materialiteit een belangrijke parameter voor het bepalen van de hoeveelheid werk die gedaan moet worden om vast te stellen of aan de gehanteerde norm voor goed genoeg is voldaan. Een andere parameter die daarbij van belang is, is de betrouwbaarheid. Dit begrip houdt verband met de kans dat de som van de fouten de materialiteit overschrijdt, terwijl het niet wordt opgemerkt. In de accountancy wordt hiervoor in het algemeen een percentage van 5% gehanteerd; men spreekt dan van een betrouwbaarheid van 95%. Het begrip materialiteit dekt, uitgaande van een materialiteit van stel 100.000, een populatie van stel 10.000.000 en een betrouwbaarheid van 95%, de stelling: "Als er in deze populatie op een te controleren bedrag ter grootte van 10.000.000 een bedrag van (meer dan) 100.000 fout zou zijn, dan moet dat tenminste in 95 van de 100 (steekproef)controles ontdekt worden". De woorden “Als … fout zou zijn” geven aan dat het voorstaande dus niet betekent dat 5 van de 100 populaties (na controle) fouten bevatten ter grootte van de materialiteit (of hoger). Niet alle te onderzoeken populaties zullen immers fouten tot een dergelijk bedrag bevatten. Tot slot is nog van belang dat, op het moment dat de bevindingen worden geëvalueerd, niet alleen de omvang van het bedrag maar ook de aard van de geconstateerde fouten (een kwalitatieve norm) een rol speelt voor het uiteindelijke oordeel. 4.5.2. De hoogte van de materialiteit Voor ondernemingen die een (goedkeurende) verklaring bij de jaarrekening nodig hebben zal de materialiteit die de Belastingdienst hanteert over het algemeen lager liggen dan de materialiteit die de externe accountant hanteert voor de jaarrekeningcontrole. De materialiteit voor de jaarrekening wordt voor fiscale doeleinden vaak als te hoog ervaren. Dit laatste geldt niet alleen Ook vanuit het oogpunt van interne beheersing van bedrijfsprocessen wordt de materialiteit voor de jaarrekeningcontrole veelal als te hoog ervaren. Dit betekent dat in de organisatie vaak een lagere materialiteit wordt gehanteerd voor de planning van de (interne) controlewerkzaamheden. Het ligt in de rede om bij het maken van afspraken over de materialiteit aansluiting te zoeken bij deze laatste – lagere – materialiteit. Deze heeft namelijk een directe relatie met de mate van “control” die men intern nastreeft. Dit betekent echter niet dat de materialiteit die de organisatie hanteert gelijk is of moet zijn aan de materialiteit die de Belastingdienst hanteert. Een lagere materialiteit betekent dat meer gegevensgericht werk moet worden gedaan. Afhankelijk van de bevindingen ten aanzien van de kwaliteit van de interne beheersings- en controlesystemen en de kwaliteit van de al uitgevoerde controlewerkzaamheden, wordt bepaald of dit meerdere gegevensgerichte werk nog gedaan wordt. Het is dus geen correctiegrens. Een correctiegrens is een bedrag waar beneden om allerlei redenen, waaronder ook doelmatigheidsoverwegingen, geen correcties aangebracht worden. Waar in dit onderdeel wordt gesproken over controle, kan het zowel om de (verbijzonderde) interne controle als een externe (jaarrekening of fiscale) controle gaan. De te controleren c.q. beoordelen populatie wordt gevormd door alle transacties in een (boek)jaar, die op juistheid moeten worden beoordeeld en (mede) de basis vormen voor de jaarrekening en/of fiscale aangiften. Zo is een Zuid-Amerikaanse bank in 1995 failliet gegaan omdat zowel de in- als externe controle zich niet bekommerde om transacties met een geringe waarde, terwijl die transacties werden gebruikt voor een grootschalige fraude. Zo zullen bijvoorbeeld signalen die duiden op het doorbreken van de interne beheersingsmaatregelen door de leiding (“tone at the top”) of fraude over het algemeen ongeacht de omvang leiden tot nader onderzoek. “ Ja, alhoewel ik een van de drie materialiteit, zekerheid, betrouwbaarheid mis, trek ik duidelijk weer de conclusie dat het verstandig is dit met te controleren bedrijven eens te bespreken en (zeker als ze ook in “Compliance of Control” werken) te kijken naar de eigen verantwoording en het uitvoeren van steekproeven in de Interne Beheersing. Voor overheid en overheidsgesubsidieerde organisatie verwijs ik naar de desbetreffende controleprotocollen waarin toch vergelijkbare dingen staan. Vadertje staat trekt volgens mij de duimschroeven (toleranties) aan. Verder beveel ik iedereen aan Statistiek voor Audit en Controlling aan te schaffen gewoon voor de lol en vooral omdat het in ruime mate door studenten na het tentamen 2e hands wordt aangeboden op die site met dat dikke poppetje en werkelijk echt zo goed als nieuw voor maar € 10,- Enne jongens, niet te zuinig met die steekproeven, hé. Gewoon doen, extra zekerheid voor het maatschappelijk verkeer en ter glorie van het vak.

Hein Kloosterman

In het kader van (geleend van Popper) de growth of scientific knowledge wil ik nog een paar opmerkingen plaatsen. Ik vind het jammer dat Van Herk "steekproeven in de accountantscontrole" afdoet als "tool". De methodologie van audit risk en audit evidence (geleend van Tony Steele) is gebouwd op steekproeftheorie. Het leren spelen met materialiteit (onnauwkeurigheid) en steekproefrisico (eigenlijk statistische onbetrouwbaarheid) laat zien dat het klutsen van die begrippen, hoe begrijpelijk ook, leidt tot het slechts beoefenen van retoriek. Dat doet deze discussie over "isoleren of niet" te kort. Daarom wil ik als uitdaging meegeven dat isoleren onder voorwaarden is toegestaan. Liever nog: er is niets op tegen om een populatie op te delen in deelpopulaties. Zo Als we bijvoorbeeld een steekproef trekken met de techniek Cell-sampling creëren we een deelpopulatie van integraal te controleren bedragen (alle bedragen die groter dan of gelijk zijn aan de Cellgrootte). Als dat niet isoleren is? Volgens mij heb ik zo voldoende "bewezen" dat de stelling "isoleren mag niet" niet houdbaar is.

Gerard van Herk

Laatste reactie!! In mijn visie is de steekproef een tool waarvan de accountant de toepassing moet kennen en dient hij zelfs niet in de wiskundige uitwerking en bewijsvoering te treden want dat ligt buiten zijn specifieke vakkennnis. Aangezien mijn pleidooi juist kijkt naar de taakverdeling, relaties en de organisatie van het organisatieoverschrijdend werk kunnen genoemde schoonheidsfoutjes (potatoe-poteito) niets af doen aan de conclusies. Controle van de IB behoort volgens mij altijd via een eigen directe waarneming te gebeuren maar vooruit hierbij mijn dank voor het nogmaals benoemen. Verder citeer ik; Wederom verwijs ik naar de artikelen van Kees Buitenhuis in het Salarismagazine (nr 5) mei en (nr 6) juni 2010 (te vinden op WWW.salarisnet.nl). Maar minder Google vaardigen zal ik een exemplaar mailen. Spreuk van de dag; Consensus is stagnatie, botsen is groeien. ;-}

Paul van Batenburg

Beste Gerard: dank voor deze interesaante reactie. Een stuk constructiever dan de vorige. Hoe kan je nu al op een woensdag vragen hoe mijn week was? Wist ik dat maar... Ik ben het ook helemaal eens met je bezwaren tegen isoleren. Het artikel dat je noemt zou ik graag willen lezen. Zou je mij een exemplaar willen sturen?(paulAT:steekproeven.eu) Blijft staan dat je blijft zeggen dat een steekproef die is opgezet met 95% betrouwbaarheid ook een tolerantie van 5% heeft. Wat jij foutenkans van 5% noemt staat daar volkomen los van. Dat zet een hoop van alles wat je er na schrijft op losse schroeven. Je stelling dat een accountant kan volstaan met beoordelen van de IB zou snel een conflict kunnen geven met COS 330-18. Daarom lijkt mij een steekproef waarvan de omvang mede wordt bepaald door het oordeel over de IB een veiliger aanvliegroute. Of je die voorkennis nu klassiek of Bayesiaans verwerkt maakt voor de omvang in principe niet uit. AOQL (en varianten daarvan zoals EOQL) kost per definitie meer werk dan zo'n steekproef maar heeft ook een ander doel: opschonen tot het goed genoeg is kost meer werk dan toetsen of het goed genoeg is. groet, Paul

Gerard van Herk

Wie A zegt moet ook.. Ik zal proberen in het kort aan te geven dat mijn vragen in mijn vorige reactie gebaseerd zijn op de vele misvattingen in deze column en ik zo de discussie wat breder wilde trekken. Allereerst de vraag is geen vraag ik citeer hiervoor Bart Braun in NWT nr 6/s004 (jawel 2004); “Foute boekhouding overleeft steekproef” “Bij het controleren van een jaarverslag zijn boekhoudstatistici strenger in de leer dan accountants. De Algemene Rekenkamer wilde weten of dat terecht was en benaderde een studiegroep van wiskundigen. Hun conclusie: het gesleutel aan sommige accountantscontroles bij Nederlandse ministeries kan niet door de beugel.” Verder vind ik dat het isoleren van fouten uit steekproeven om drie redenen niet kan plaatsvinden. 1. Vaktechnisch; In enge zin niet omdat (zie bovenstaand citaat) wiskundigen vinden dat het achteraf wijzigen van de regels en het isoleren van fouten door accountants niet kan. Ludolf Meester van Institute of Applied Mathematics, TU Delft begint zijn presentatie van 28 mei 2008 met de stelling ”Behandelen anomaliën volgens ISA 530 leidt tot te lage betrouwbaarheden.” Daarnaast heeft dus de rekenkamer nog steeds deze vraag, constateert het AFM in haar rapport algemene bevindingen kwaliteit accountantscontrole en kwaliteitsbewaking van 1 september 2010 o.a. meermaals dat de accountant onvoldoende werkzaamheden verricht en onvoldoende controlemateriaal in zijn dossier heeft. Uit de artikelen van Kees Buitenhuis RA werkend bij de belastingdienst waaruit ik de volgende conclusie overneem; “De conclusie is dat het onderwerp ‘homogeniteit of heterogeniteit van de populatie’ praktisch gezien eigenlijk geen betekenis heeft. De aandacht voor dit onderwerp hangt meestal samen met een onvoldoende zicht op de functie van de interne beheersingsorganisatie. In ieder geval is het onderwerp voor de uitkomsten van het steekproefonderzoek niet relevant". Volgens mij is de accountant vaktechnisch gehouden voldoende controlewerkzaamheden te verrichten en zelfs de schijn te vermijden dat hij dit niet doet. Of isoleren we ook deze regel? Laten we het erop houden dat de accountant nu de schijn tegen heeft al heeft hij het gelijk aan zijn kant. 2. Het maatschappelijk verkeer; Uit het bovenstaande blijkt dat de accountant zich met zijn huidige stellingname isoleert van het maatschappelijk verkeer en dat hij daardoor in ieder geval de schijn op zich laadt dat hij zijn werk niet op het gewenste niveau uitvoert. Dit betekent volgens mij dat de accountant of duidelijk moet kunnen communiceren zodat hij het vertrouwen herwint of zijn handelwijze zal moet aanpassen. Het laatste lijkt mij op korte termijn onvermijdelijk aangezien de accountant anders het vertrouwen van het maatschappelijk verkeer verspeelt. 3. De relatie met de klant en wat de accountant en de klant van elkaar mogen verwachten. De meeste klanten zijn tegenwoordig in compliance met SOX, COSSO, 6 sigma, ISO enz.. en beschikken allen over een kwaliteitssysteem wat ook permanente monitoring inhoudt. Ook (misschien voor meer AA’s aansprekender.) het horizontaal toezicht van de belastingdienst en het daarbij behorende Tax Control Framework en de afgesloten convenanten gaan ervan uit dat de klant de gegevens juist en volledig aanlevert. Puntje wat misschien over het hoofd is gezien door accountantskantoren die een convenant gesloten hebben is dat de klant dit niet alleen moet verklaren maar ook aantonen. Wederom verwijs ik naar de artikelen van Kees Buitenhuis in het Salarismagazine (nr 5) mei en (nr 6) juni 2010 (te vinden op WWW.salarisnet.nl). Uitgangspunt hier is dat de klant middels (ja,ja) steekproeven aantoont dat de aangiften (ook periodiek) juist en volledig zijn (althans met 95% zekerheid voor een foutenkans van 5%). Frappant is dat Buitenhuis stelt dat als de klant constateert dat hij in een periode dit voor bijvoorbeeld kostendeclaraties niet kan concluderen uit zijn steekproef dat hij die periode (ongeacht de fout) integraal moet controleren en corrigeren. Ja dat lijkt hard maar wil de klant volhouden dat hij de gegevens voor de aangifte juist en volledig aanbiedt zal hij dit wel moeten doen. Verder geldt natuurlijk dat niet overeind is te houden dat de klant “in control” of “in compliance” is als hij dit monitoringssysteem, de volledig geïntegreerde leerkring en interne beheersing niet heeft. Lijkt mij ook te zot dat technisch 6 sigma ( 3 afwijkingen per 1.000.000) haalbaar is en dat financieel een foutenkans van 5% te hoog gegrepen zou zijn. Dan tenslotte nog wat de uitdaging betreft; In de hierboven omschreven relatie met de klant en een juiste verdeling van taken en verantwoordelijkheid ligt volgens mij een enorme efficiencyslag voor het oprapen. De klant heeft immers al aangetoond dat het klopt en de accountant behoeft vervolgens alleen nog te testen dat de interne beheersing inderdaad werkt maar volgens mij hoeft hij dan enkel enkele perioden een autonome steekproef te doen of deze de uitkomsten van de steekproeven die binnen de interne beheersing uitgevoerd juist zijn. (Heel kort wil ik vermelden dat EEOQL (Exact Expected Outgoing Quality Limit), Bootstrapmethode en het Bayesiaans model tot meer efficiënte steekproeven kunnen leiden maar dat gaat mij te diep). Mocht nu blijken dat één of meerdere perioden dit niet zo is dan is duidelijk dat de interne beheersing incidenteel of meermaals heeft gefaald. Bij een meermaals falen maakt het niet uit of de fout bewust, onbewust, systematisch of incidenteel is de interne beheersing heeft gefaald. Het belang van de klant is ook groter dan alleen de goedkeuring bij de jaarrekening het heeft een uitwerking op het vertrouwen van klanten, financiers, werknemers en de interne integriteit als fouten er doorheen slippen. Fiscaal zijn problemen dan met redelijke zekerheid te verwachten Fraude is verder niet meegenomen in het bovenstaande om dat dit primair niet in de jaarrekeningcontrole vooropstaat en dat het vinden van criminelen ook een overheidstaak is die via politie, justitie en toezichthouders dient te lopen. Misschien ook een communicatiepunt met het maatschappelijk verkeer. Verder wie geen goedkeurende verklaringen afgeeft maar wel onder horizontaal toezicht valt. Ik zou me toch in de (steekproef) materie verdiepen want als bij de eerste controles na invoering van horizontaal toezicht van de Belastingdienst blijkt dat klanten massaal niet kunnen aantonen dat hun gegevens juist en volledig zijn hoor ik iets tikken. Verder is iedereen bekend dat steekproeven door de belastingdienst worden gebruikt en dat de Hoge Raad dit meermaals als bewijsmiddel heeft geaccepteerd. Lees de artikelen uit Salarismagazine want die geven op een zeer eenvoudige en toepasbare manier aan hoe de materie kan worden aangepakt. Jammer dat ik op Accountant.nl niet dit soort artikelen heb kunnen vinden maar ik zal het wel niet snappen net zoals de Rekenkamer, AFM, TU te delft en belastingdienst. Voel me in ieder geval niet geïsoleerd. ;-)

Hein Kloosterman

Het is jammer dat de discussie wat wegloopt van het begrip "isolatie van fouten". Ik vind het heel begrijpelijk dat het begrip "homoginiteit" ter sprake komt: vooraf is bij accountantscontrole - bij gebruik van het risicoanalysemodel - sprake van een (zo goed als) schone populatie. Een fout in een steekproef gooit dan roet in het eten, laat staan dat er meer fouten worden aangetroffen. Ik ben in de praktijk wel tegengekomen dat men na het aantreffen van fouten in een compliance test stelde dat dat niet erg was omdat er ook nog andere controlemiddelen dan een steekproef werden ingezet. Ed Broeze stelt heel terecht in zijn column dat men van goede huize moet komen, en dus veel werk moet verrichten om een of meer fouten die in een steekproef zijn aangetroffen toe te rekenen aan een deelpopulatie in plaats van de populatie waarop getrokken is. Mijns inziens is dat alleen mogelijk als er toereikend bewijs wordt geleverd dat in de complementaire populatie geen fouten kunnen voorkomen van de aard van de "steekproeffouten". En om daar weer toereikend bewijs voor te vinden kan het wel eens zijn dat er heel veel werk moet worden verricht. Er wordt ook wel eens besloten een aanvullende steekproef te doen. Zo'n actie heeft alleen zin als het doel ervan is een betere (nauwkeuriger) schatting van de aanwezige fouten te krijgen. Men kan niet achteraf de gekozen besluitvormingsprocedure gaan veranderen. Accountantsoncontrole is geen politiek debat (hoop ik).

Ed Broeze

Op Arnout: Ja, homogeniteit…. Een begrip met vele betekenissen en lang niet altijd even helder gedefinieerd. Voor de accountancy vind ik de definitie: “data zijn homogeen als ze uit hetzelfde proces voortkomen” de helderste en ook het dichtst bij wat er m.i. mee wordt bedoeld. Dat komt heel dicht in de buurt van wat Paul erover zegt. Maar één proces kan nog best heel uiteenlopende data voortbrengen. Tot en met (ogenschijnlijk) isoleerbare fouten. Voor de statistiek is dat niet erg: als je maar aselekt blijft trekken. En je moet dan natuurlijk niet achteraf en ook nog doelgericht elementen een andere behandeling gaan geven, zoals met isoleren gebeurt. Als Burghstahler en de zijnen ´homogeniteit´gebruiken, verwijzen ze naar het aselekte trekken (anders klopt m.i. hun bewering niet) die dus ook om een ‘homogene’ behandeling vraagt van de data.. Op Koert: Wat is een ‘betere schatter’?? In de statistiek wordt het z.g. ’zuiver’ zijn van een schatter als één van de eerste kwaliteiten wenselijk geacht. ‘Zuiver’ betekent in de statistiek dat de desbetreffende schatter gemiddeld over héél veel keren een steekproef trekken (uit dezelfde populatie), gemiddeld precies op de te schatten grootheid uitkomt. Maar er zijn situaties waarin een aanpassing daarop tot een schatter met een kleinere variantie leidt, nauwkeuriger dus, maar gemiddeld er (net) naast zit. Als dat er naast zitten voor grotere steekproeven maar kleiner wordt, heb je toch nog een goede schatter, al is hij dus ‘biased’. Een voorbeeld hiervan is de schatter voor de variantie: daarvoor kun je de kwadratensom in de steekproef delen door n-1, geeft een zuivere schatter, maar met een iets grotere variantie dan wanneer je deelt door n; maar die is dan ‘biased’. Maar bij toenemende n komt hij (ook gemiddeld) steeds dichter bij de te schatten variantie. Wheeler en de zijnen gebruiken dat idee van kleinere variantie, maar staan dan impliciet wel een schatter toe die zó biased is dat je met je schatting onder de materialiteit uitkomt; onbegrensd, onafhankelijk van de n.

Gerard van Herk

Beste Paul, Hoe was je week?

Paul van Batenburg

Beste Gerard: hoewel je vraag niet direct gekoppeld is aan dit onderwerp wil ik best proberen antwoord te geven. Bij steekproefcontroles hanteer je meestal 2 parameters: - de betrouwbaarheid, die meestal 95% is en dus aangeeft dat er 5% kans is op ten onrechte goedkeuren - de onnauwkeurigheid, die aangeeft welk bedrag of % er met 5% kans ten onrechte mag doorglippen. Jij haalt volgens mij met de term "5% steekproef " deze begrippen door elkaar. Als de massa erg groot is zal je natuurlijk de onnauwkeurigheid daar bij aanpassen. Dat staat los van het risico van 5% dat je dan toch nog ten onrechte goedkeurt. Dat steekproeven niet het enige nuttige tool is van de accountant, en dat voor elk probleem moet worden nagegaan wat het beste tool is, kan je in andere columns ook terugvinden. Laten we niet elke verhandeling over een deelonderwerp weer laten verworden tot een discussie over nut en noodzaak van steekproeven. Dat schiet zo weining op voor die mensen die wel baat hebben bij meer inzicht. Ik daag jou en alle andere lezers uit om een effcetievere en efficientere methode te bedenken dan een combinatie van queries op vooraf gedefinieerde onmogelijkheden plus een steekproef op de resterende plausibele gegevens, waarvan de omvang mede wordt bepaald door een inschatting van het risico en de beoordeling van de AO/IB.

Gerard van Herk

Nogmaals want de tekst is weggevallen ( wellicht door kleiner dan teken?). Wat is de rol van een steekproef bij het ontdekken van fraude of opzettelijke fouten? Heel leuk allemaal die discussie over steekproeven en en waarschijnlijkheidskans. Dikke boeken over kleiner dan 5% kans op fouten. Maar als ik naar fraudes kijk gaat het om miljarden. Spaarrekeningen van 6 nullen bestaan niet, voor miljarden polissen en of debiteuren bestaan niet, staatsobligaties of hypotheekportefeuilles zijn waardeloos, enz. Hoe is het mogelijk dat dit over het hoofd is gezien? Hielpen daar de 5% steekproeven niet? Of gebeurt fraude altijd buiten de "eigen"administratie? Zien accountants door de steekproefbomen het fraudebos niet meer? Zijn accountants teveel afwezig bij de controle en vertrouwen ze teveel op assistenten die braaf steekproefdossiers vullen? Heeft het zoeken naar kleiner dan 5% foutenkans wel zin? Kan niet beter top down qua financieel belang worden gewerkt?

Gerard van Herk

Wat is de rol van een steekproef bij het ontdekken van fraude of opzettelijke fouten. Heel leuk allemaal die discussie over steekproeven en en waarschijnlijkheidskans. Dikke boeken over

Paul van Batenburg

Interessant om te zien dat het H woord van de statistical audit meteen valt. Homogeniteit betekent niet dat alle elementen van de massa gelijk zijn maar dat elk element representatief is voor het geheel. De meeste accountants gaan daar achteraf, nadat ze fouten hebben gevonden, over nadenken, maar dat is te laat. COS 530-A12. Eigenlijk is heterogeniteit helemaal niet een zorg voor de accountant maar voor de gecontroleerde: als die meent dat sommige elementen van de massa een grotere kans op fouten hebben dan andere, dan dient de gecontroleerde zijn IB daar op in te richten. Er bestaat een heel interessante steekproefmethode voor de interne beheersing die optimaal gebruik maakt van die heterogeniteit (AOQL). Op het moment dat de gecontroleerde zich laat controleren belooft die de accountant dat de massa homogeen is zodat de accountant efficiënt kan (goedkeuren) controleren. En als die dan toch fouten vindt? COS 450-8 geeft het antwoord: corrigeren! Niet alleen de gevonden fouten maar ook de projectie (COS 450 A3). Hoe doet de gecontroleerde dat zonder tegenboeking? Door de oorzaak van de fout op te sporen en alle elementen te onderzoeken die wellicht door die oorzaak geraakt zijn. Als daarbij een aantal fouten wordt gevonden dat redelijk overeenkomt met de projectie kan je er van uit gaan dat je het lek boven hebt.

Koert de Vries

Er mag volgens mij maar één motief zijn om een fout als ‘incicenteel’ te behandelen: wanneer je op die manier een betere schatter krijgt van de fout in de populatie. Ik ben echter bang dat er in de praktijk andere, meer opportunistische, redenen zijn om een fout niet op te blazen.

Hans Blokdijk

Als je onder 'honogeniteit' verstaat: 100% foutloos, moet je inderdaad bij het vnden van een foiut niet alleen de steekproef, maar de hele massa afwijzen. Maar dat hoeft een accountant bij zijn controles niet te bewijzen: hij moet met zeg 95% zekerheid vaststellen dat er niet meer dan een aanvaardbaar percentage fouten (materialiteit) in de massa zit. Als hij dat probeert met een steekproef waarbij hij die conclusie slechts mag trekken als hij geen fouten aantreft, en hij er roch een vindt, mag hij die conclusie niet trekken. Maar dan komt de verleiding van het 'isoleren': 'dit foutje is uniek;dat komt verder niet voor, en andersoortige fouten ook niet'. Dat is onzindelijk wegredeneren van je bevindingen: een inbreuk op de integriteit! Bij dergelijk gedrag moet je niet verbaassd zijn als een (eindelijk) ontdekte fraude al jaren aan de gang blijkt te zijn.

Silvana Vorstermans

ik ben erg benieuwd wat wél kan, er van uit gaande dat de massa (de getrokken euro!) homogeen is.

Arnout van Kempen

Is een deel van het probleem niet precies "die homogeniteits-aanname"? Zou je, in plaats van te isoleren of te extrapoleren niet ook de optie moeten open houden dat de gehele steekproef afgewezen moet worden als je door een fout moet constateren dat de aangenomen homogeniteit ontbreekt? Of praat ik nu enorme onzin?

Reageren op een artikel kan tot drie maanden na plaatsing. Reageren op dit artikel is daarom niet meer mogelijk.

Aanmelden nieuwsbrief

Ontvang elke werkdag (maandag t/m vrijdag) de laatste nieuwsberichten, opinies en artikelen in uw mailbox.

Bent u NBA-lid? Dan kunt u zich ook aanmelden via uw ledenprofiel op MijnNBA.nl.