227
INTERNE REVISION
4 | 2016  EXPE RT FOCUS
M A R I O K Ü N D I G
Durch die fortschreitende Digitalisierung in der Finanz...
228
INTERNE REVISION
EXPE RT FOCUS  2016 | 4
DATA SCIENCE IN DER INTERNEN REVISION
muster aufzuspüren, zu visualisieren un...
229
INTERNE REVISION
4 | 2016  EXPE RT FOCUS
DATA SCIENCE IN DER INTERNEN REVISION
Abbildung 1 veranschaulicht die untersc...
230
INTERNE REVISION
EXPE RT FOCUS  2016 | 4
DATA SCIENCE IN DER INTERNEN REVISION
spricht auch von datengetriebenen Analy...
231
INTERNE REVISION
4 | 2016  EXPE RT FOCUS
DATA SCIENCE IN DER INTERNEN REVISION
SQL» oder «erweitertes SQL» [6]. In rel...
232
INTERNE REVISION
EXPE RT FOCUS  2016 | 4
DATA SCIENCE IN DER INTERNEN REVISION
Finanzen, Betriebswirtschaft, Complianc...
Nächste SlideShare
Wird geladen in …5
×

Data Science in der Internen Revision - Mario Kündig - April 2016

415 Aufrufe

Veröffentlicht am

Durch die fortschreitende Digitalisierung in der Finanz- und Versicherungswirtschaft werden riesige Mengen von Informationen generiert. Deshalb sieht sich die interne Revision in der Wahl ihrer Prüfmethodik vor neue Herausforderungen gestellt. Der Autor beschreibt Möglichkeiten, um die Analyse von Massendaten als Prüfschritt innerhalb einer Revision zu integrieren.

Veröffentlicht in: Technologie
0 Kommentare
2 Gefällt mir
Statistik
Notizen
  • Als Erste(r) kommentieren

Keine Downloads
Aufrufe
Aufrufe insgesamt
415
Auf SlideShare
0
Aus Einbettungen
0
Anzahl an Einbettungen
18
Aktionen
Geteilt
0
Downloads
8
Kommentare
0
Gefällt mir
2
Einbettungen 0
Keine Einbettungen

Keine Notizen für die Folie

Data Science in der Internen Revision - Mario Kündig - April 2016

  1. 1. 227 INTERNE REVISION 4 | 2016  EXPE RT FOCUS M A R I O K Ü N D I G Durch die fortschreitende Digitalisierung in der Finanz- und Versicherungswirtschaft werden riesige Mengen von Informationen generiert. Deshalb sieht sich die interne Revision in der Wahl ihrer Prüfmethodik vor neue Herausforderungen gestellt. Der Autor beschreibt Möglichkeiten, um die Analyse von Massendaten als Prüfschritt in- nerhalb einer Revision zu integrieren. DATA SCIENCE IN DER INTERNEN REVISION Erfahrungen und Herausforderungen 1. EINLEITUNG Dieser Beitrag beschreibt den Einsatz moderner Datenana- lyse-Technologien durch die interne Revision. Mit der zu- nehmenden Digitalisierung der Kommunikationskanäle und der Kundenprozesse entsteht eine noch nie da gewesene Datenmenge, die es zu erschliessen gilt. Die Anwendung ex- plorativer Datenanalysen – ergänzend zu den bestehenden Prüfmethoden – ist u. E. unverzichtbar und wird künftig an Stellenwert zunehmen. Um die neuen Technologien und Me- thoden nutzen zu können, wird Zugang zu entsprechender Infrastruktur sowie statistisches und technisches Know-how benötigt. Dies führt zu einem veränderten resp. erweiterten Kompetenzprofil der Revisionsteams. In der Datenanalyse werden folgende Begriffe unterschie- den:  Business Intelligence: Unter Business Intelligence werden Tools und Verfahren verstanden, die operative und finan­ zielle Unternehmensdaten systematisch konsolidieren und analysieren. Mithilfe von Business Intelligence werden Re- ports und Cockpits generiert, die in der Tendenz standar- disiert und vergangenheitsorientiert sind [1].  Data Science: Mit Data Science ist die Gesamtheit aller Ver- fahren und Technologien gemeint, die es ermöglichen, un- terschiedliche Daten aus verschiedenen Quellen auszuwer- ten. In der Tendenz erfolgen diese Tätigkeiten zukunftsori- entiert und explorativ. Dabei werden mittels Data Mining statistische Methoden und Algorithmen angewendet, um aus den Daten verborgenes Wissen ableiten und Prognosen vornehmenzukönnen.ZudemwerdenmithilfevonBigData Analytics sich dauernd verändernde sowie unstrukturierte Massendaten verarbeitet.  Standardabfragen: Bei den Standardabfragen handelt es sich um vorgefertigte Datenabfragen und Berichte, die kontinu- ierlich ausgeführt, aufbereitet und verteilt werden.  Ad-hoc-Abfragen: Ad-hoc-Abfragen werden auf spezifische Fragestellungen hin vorgenommen und finden in der Regel nur einmal genau so statt. 2. NOTWENDIGKEIT VON DATENANALYSEN IN DER INTERNEN REVISION Gemäss Standards des Institute of Internal Auditors (IIA- Standards) sind die übergeordneten Prüfziele der internen Revision die Verlässlichkeit der finanziellen Berichterstat- tung, die Einhaltung von Gesetzen und Vorgaben der Unter- nehmensführung sowie die Wirtschaftlichkeit und Wirk- samkeit der Geschäftsprozesse. Seit 2013 ist die Erreichung der strategischen Ziele als Prüfziel explizit aufgeführt [2]. Damit sieht sich die interne Revision zunehmend mit zu- kunftsbezogenen Fragestellungen konfrontiert. Um eine verlässliche Aussage über diese Prüfziele machen zu können, kann die interne Revision eine Prüfung zufällig gewählter Geschäftsfälle vornehmen (Stichprobe) oder eine Vollerhebung sämtlicher Geschäftsvorfälle durchführen. Die heutigen Geschäftstätigkeiten generieren durch ihre automatisierten Prozesse und den damit verbundenen In­ formatiksystemen eine grosse Menge an Informationen. Eine stichprobenartige Prüfung der Geschäftsvorfälle ge- nügt oft nicht, um die Wirtschaftlichkeit der Geschäftspro- zesse und die Angemessenheit des Ressourceneinsatzes be- urteilen zu können. Stattdessen müssen die Informationen aneinandergefügt und in ihrer Grundgesamtheit betrach- tet werden. Eine vergangenheitsorientierte Prüfung, wie es in der Buchprüfung der Fall ist, genügt bei operationellen Revisionen oft nicht mehr. Es muss eine zukunftsorien- tierte Aussage über die Erreichung der strategischen Ziele gemacht werden können. Dazu müssen neue Wege einge- schlagen werden, um aus Informationen Tendenzen erken- nen und Prognosen ableiten zu können. Dolose Handlun- gen lassen sich durch klassische Prüfungsansätze nur in den seltensten Fällen fest­stellen – und wenn, dann meist nur zufällig. Es besteht hingegen die Möglichkeit, mittels erweiterter statistischer Methoden verborgene Handlungs- MARIO KÜNDIG, DIPL. ING. FH, CIA/CISA, LEITER OPERATIONELLE REVISION, CSS VERSICHERUNG, LUZERN, MARIO.KUENDIG@CSS.CH
  2. 2. 228 INTERNE REVISION EXPE RT FOCUS  2016 | 4 DATA SCIENCE IN DER INTERNEN REVISION muster aufzuspüren, zu visualisieren und zielgerichtet zu untersuchen. Im Modell der Three Lines of Defense (TLoD) ist die interne Revision die Third-Line-Funktion. Sie stellt somit die letzte Verteidigungslinie dar, sollten Risiken und Gefahren die vorgelagerten Linien durchbrechen. Erste Verteidigungsli- nie ist das operative Management, zweite Verteidigungsli- nie ist das Risikomanagement sowie Controlling- und Com- pliance-Funktionen. Stützt sich die interne Revision in ihrer Tätigkeit lediglich auf vorhandenes Wissen und auf beste- hende Managementreports der First und Second Line, kann sie ihre Funktion als Third Line nicht vollumfänglich wahr- nehmen. Sie ist dann nur bedingt in der Lage, Kontroll­ lücken, Geschäftsrisiken und -potenziale festzustellen, die nicht bereits durch die vorgelagerten Verteidigungslinien identifiziertwordensind.DieinterneRevisionmussdeshalb vermehrt in der Lage sein, die Unternehmensdaten mittels Data Science auf neue Art und Weise zu kombinieren und zu- kunftsbezogen zu analysieren. 3. DER EINSATZ VON BUSINESS INTELLIGENCE IM VERSICHERUNGSUMFELD Business Intelligence kann als Prozess betrachtet werden, der Unternehmensdaten systematisch konsolidiert, analy- siert und den Entscheidungsträgern zugänglich macht. Da­ bei gilt es drei Phasen zu berücksichtigen: 1. Extraktion der Daten, 2. Analyse der Daten und 3. Bereitstellung der Daten ineinerstrukturiertenForm.BeidererstenPhasewerdenim sogenannten ETL-Prozess [3] (Extraction, Transformation, Load) die operativen Bewegungsdaten aus den Backend-Sys- temen extrahiert, transformiert und in ein Data Warehouse überführt. Die zweite Phase kann als die Aktualisierung der verschiedenen Cockpits, Dashboards und Standardreports interpretiert werden. Die dritte Phase entspricht der Überfüh- rung der Abfrageresultate in die Entscheidungsprozesse, was der Aktualisierung und Verteilung der Management Re- ports entspricht. Diese Prozesse erfolgen oft standardisiert. Die Berichte sind vorgefertigt und erlauben wenig Inter­ aktion. Die oben genannten Tätigkeiten entsprechen im Wesent­ lichen den Aufgaben der Einheiten der First Line, insbe­ sondere dem operativen und finanziellen Controlling. Hier werden Betriebs- und Finanzkennzahlen multidimensional zusammengestellt, aggregiert und der Geschäftsleitung zu- gänglich gemacht. Auch Second-Line-of-Defense-Funktio- nen bedienen sich für ihre Tätigkeiten der Business-Intelli- gence-Berichte. So verfügen die Assurance-Stellen des inter- nen Kontrollsystems (IKS) über Standardreports, um die Einhaltung von Schlüsselkontrollen zu überprüfen. Beispiel hierfür ist die Überprüfung der Einhaltung von Kompetenz- ordnungen. Der Third Line of Defense (interne Revision) stehen kaum Standardreports und Dashboards zur Verfügung. Repetitive Fragestellungen, die regelmässig dem Verwaltungsrat und dem Prüfungsausschuss zugänglich gemacht werden, kom- men selten vor. Als Ausnahme kann hier allenfalls Conti- nuous Monitoring erwähnt werden, das gelegentlich zum Einsatz kommt. Eine besondere Bedeutung kommt den Ad-hoc-Abfragen zu, die ergänzend zu den Standardabfragen situations- oder problembezogen vorgenommen werden. In diesem Zusam- menhang wird auch von OLAP (Online Analytical Proces- sing) gesprochen. Ad-hoc-Abfragen erfolgen oft einmalig. Die Abfragen werden entweder zielgerichtet vorgenommen, entsprechend einer spezifischen Fragestellung oder eines Hypothesentests,odersieerfolgenwenigerzielgerichtetund sind explorativ, um sich verborgenen Zusammenhängen an- zunähern. Für beide Ansätze kann ein multidimensionaler Datenwürfel erstellt werden, der mittels klassischer Drill- funktionen analysiert wird. Das Erstellen von Dashboards undCockpitssiehtaufdenerstenBlicknachStandardreports aus. Aufgrund flexibler Architekturen lassen sich auch Ad- hoc-Cockpits erstellen, die nach ihrem Einsatz wieder ver- worfen werden. Ad-hoc-Datenabfragen werden auf allen Stufen der TLoD angewendet, wobei sie in der First LoD im Vergleich zu den Standardabfragen und Dashboards tendenziell weniger häu- fig vorkommen. In der Second und Third LoD nehmen Ad- hoc-Abfragen in der Häufigkeit und in der Bedeutung zu. Abbildung 1: GRAD DER STANDARDISIERUNG IM KONTEXT DES THREE-LINE-OF-DEFENSE- MODELLS Quelle: Eigene Darstellung hoch tief Gradder Standardisierung 1st Line 2nd Line 3rd Line Ad-hoc- Abfragen Dashboard Cockpits Reports Abbildung 2: AGILITÄT BEI EXPLORATIVEN ANALYSEN MITTELS AD-HOC-ABFRAGEN Quelle: Eigene Darstellung Design der Ad-hoc-Abfrage Analyse der Abfrageresultate Erkenntnisse Antwortzeit
  3. 3. 229 INTERNE REVISION 4 | 2016  EXPE RT FOCUS DATA SCIENCE IN DER INTERNEN REVISION Abbildung 1 veranschaulicht die unterschiedlichen Ausprä- gungen der Standardisierung von Abfragen und Reports im TLoD-Modell. Für die interne Revision sind Ad-hoc-Abfragen von funda- mentaler Bedeutung. Die interne Revision kann dadurch ­Lücken schliessen und für die Unternehmung neues Wissen generieren, das durch die Standardreports und Standard- Dashboards nicht erschlossen wird. Durch die zyklische Ver- feinerung von Ad-hoc-Abfragen entsteht ein explorativer Da- tenanalyseprozess. Es werden immer wieder neue Erkennt- nisse und daraus wiederum neue Fragestellungen generiert. Dies ermöglicht der internen Revision, sich der Essenz von Handlungsmustern und Geschäftsabläufen anzunähern. Sackgassen und Richtungsänderungen müssen bei explora- tiven Analysen einkalkuliert werden. Für den Erfolg des ex- plorativen Analyseprozesses sind die Performance resp. die kurze Antwortzeit der Ad-hoc-Abfragen sowie die Flexibili- tätindenDatenarchitekturenentscheidend.Jeschnellersich die Zyklen wiederholen, desto dynamischer und agiler kön- nen neue Erkenntnisse in die nächste Abfrage einfliessen und den Erkenntnis- und Lernprozess am Leben erhalten. 4. DAS ERWEITERTE POTENZIAL VON DATA SCIENCE Wie eingangs erläutert, wird unter Data Science die Ge- samtheit aller Technologien und Methoden aus dem Data Mining und Big Data verstanden. Mit Data Science wird das Ziel verfolgt, aus den internen und externen Datenbestän- den neues Wissen abzuleiten, das mit den traditionellen Business-Intelligence-Plattformennichterschlossenwerden kann. Dabei kommen erweiterte statistische Methoden zum Einsatz. Insbesondere werden Regressionsanalysen ange- wendet, um nicht offensichtliche Zusammenhänge entde- cken zu können. Mittels Assoziations- und Clusteranalysen werden Gruppen- und Ähnlichkeitsanalysen vorgenommen. Outliers-Analysen dienen dem Aufspüren von Irregularitä- ten und Spezialfällen. Während einer Revision können die Resultate aus dem Data Mining als Ausgangsbasis für ge- zielte Einzelfallprüfungen herangezogen werden. Man « Mit Data Science wird das Ziel verfolgt, aus den internen und externen Datenbeständen neues Wissen abzuleiten, das mit den traditionellen Business- Intelligence-Plattformen nicht erschlossen werden kann.»
  4. 4. 230 INTERNE REVISION EXPE RT FOCUS  2016 | 4 DATA SCIENCE IN DER INTERNEN REVISION spricht auch von datengetriebenen Analysen. Ein wesentli- ches Merkmal von Data Mining ist die Generierung von Hy- pothesen während des Analyseprozesses. Eine andere wich- tige Rolle im Data Mining spielt zudem die Visualisierung der Resultate in Form von Grafen und Netzwerken. Dadurch kann ein vertieftes Verständnis für die Zusammenhänge er- langt werden. Das sogenannte Process Mining nimmt in der operationellen Revision einen besonderen Stellenwert ein. Dadurch lassen sich Prozessflüsse in ihrer Gesamtheit visu- alisieren und analysieren. Durch die Digitalisierung insbe- sondereinderFinanz-undVersicherungsbranche [4]werden die Prozesse zunehmend automatisiert abgewickelt,wasden Einsatz von Process Mining immer wichtiger macht. Data Science unterscheidet sich im Vergleich zu Business Intelligence durch den eher explorativen Analyseansatz. Zu­ dem richtet Data Science das Augenmerk vermehrt auf die Zukunft und versucht, Prognosen vorzunehmen (Abbildung 3). Wenn das Volumen und die Struktur der Datenmenge nichtmehrmittraditionellenDatenbanksystemenbewältigt werdenkönnen,kommenTechnologienausdemBereichvon Big Data Analytics zum Einsatz. So kann beispielsweise im Rahmen einer IT-Revision der Gesamtbestand der system- technischen Logfiles – die mehrere Millionen unterschied- lichster Einträge beinhalten können – auf Auffälligkeiten hin untersucht werden. Diese Daten können nicht mehr in relationalen Datenbanken gespeichert werden. In diesem Zusammenhang wird auch von «NoSQL» gesprochen, wobei SQL für Structured Query Language steht, die Sprache zur Defi- nition von Datenstrukturen in relationalen Datenbanken. Mit«NoSQL»istnicht«keinSQL»gemeint,sondern«nichtnur Abbildung 3: DER UNTERSCHIED ZWISCHEN BIG DATA UND BUSINESS INTELLIGENCE IN BEZUG AUF DEN ANALYSEANSATZ UND DESSEN ZIELORIENTIERUNG [5] explorativ Analyse- ansatz deskriptiv Vergangenheit Zeit Zukunft Data Science Business Intelligence Abbildung 4: BIG-DATA-ARCHITEKTUR DER CSS VERSICHERUNG [9] Math and Stats Data Mining Business Intelligence Applikationen Marketing TOOLS ENDBENUTZER DISCOVERY PLATFORM CSS DATA WAREHOUSE DATA PLATFORM ACCESSMANAGEMOVE Big-Data-Architektur Management Marketing Frontend- Benutzer Kunden Interne Revision Data Scientists Business- Analysten HADOOP TERADATA DATABASE TERADATA ASTER DATABASE ERM CRM SCM CEM CALL CENTER Logs Text Social Media QUELLEN « Data Science unterscheidet sich im Vergleich zu Business Intelligence durch den eher explorativen Analyseansatz.»
  5. 5. 231 INTERNE REVISION 4 | 2016  EXPE RT FOCUS DATA SCIENCE IN DER INTERNEN REVISION SQL» oder «erweitertes SQL» [6]. In relationalen Datenbanken liegt das Hauptaugenmerk auf der Datenkonsistenz und auf der Datenmodellierung. Da durch den Einsatz von Big Data die Datenstruktur oft nicht bekannt ist, wird auf ein starres DatenmodellundaufeineabsoluteDatenkonsistenzverzich- tet, weshalb auch von «eventual consistency» gesprochen wird [7]. Um die notwendige Performance gewährleisten zu können, werden die Daten auf mehrere Knoten in einem ver- teilten Computersystem gespeichert und damit gezielt red- undant gehalten. Die Abfragen können dadurch paralleli- siert werden. Eine zentrale Rolle in Big Data Analytics spielt der von Google entwickelte Suchalgorithmus namens Map- Reduce [8]. Das Framework von Apache Hadoop kombiniert MapReduce und verteilt Speichersysteme zu einer perfor- manten und skalierbaren Big-Data-Umgebung. In Zusam- menhang mit Big Data ist auch die In-Memory-Technologie zu erwähnen. Hierbei werden ganze Datenbestände in den temporären Speicher geladen, was aufwendige Leseprozesse auf Festplatten nicht mehr nötig macht. Auch beim Einsatz von In-Memory-Technologien wird das traditionelle Daten- modell relationaler Datenbanken teilweise verworfen. Die Datenbestände werden nicht (oder nur wenig) modelliert und können weitgehend unverändert in den Speicher gela- den werden. Die Daten werden komprimiert und können di- rekt adressiert werden. Dies ermöglicht performantes Na­ vigieren und Filtern, zum Beispiel in Cockpits und Dash- boards. 5. DIE NOTWENDIGE INFRASTRUKTUR FÜR DATA SCIENCE Die interne Revision kann als einer von mehreren Endbenut- zern über einen Zugriff auf die Big-Data-Architektur der ei- genen Unternehmung zugreifen. Im Folgenden wird bei- spielhaft die Big-Data-Architektur der CSS Versicherung, eines Schweizer Krankenversicherers, erläutert (Abbildung 4). Die CSS Versicherung setzt Teradata Aster ein, was die Kombina- tion von NoSQL-Datenbanken, klassischen Data-Ware­house- Plattformen und massiv parallel arbeitenden SQL-Datenban- ken ermöglicht. Auf der Discovery-Plattform können Data Labs eingerichtet und mit einem einzigen Statement auf alle drei Plattformen zugegriffen werden. Aster bietet Pfad-, As- soziations- und Graph-Analysen, die auf dem MapReduce- Algorithmus basieren. Genügen diese Methoden nicht, kön- nen Statistiklösungen wie R oder SAS auf die Aster-Daten zu- greifen. Auch spezialisierte Data-Mining-Anwendungen wie RapidMiner oder Visualisierungssoftware wie Gephi oder Fluxicon Disco lassen sich integrieren. Eine Kombina- tion von Aster und In-Memory-Cockpits ist denkbar. Dabei verschmelzen die Grenzen zwischen Business Intelligence, Data Mining und Big Data. 6. DAS ERWEITERE KOMPETENZPROFIL DER REVISIONSTEAMS Die Anforderungen an die Kompetenzen der internen Revi- sion sind bereits jetzt breit gefächert. Vertiefte Kenntnisse in « Wenn das Volumen und die Struktur der Datenmenge nicht mehr mit traditionellen Datenbank- systemen bewältigt werden kann, kommen Technologien aus dem Bereich von Big Data Analytics zum Einsatz.»
  6. 6. 232 INTERNE REVISION EXPE RT FOCUS  2016 | 4 DATA SCIENCE IN DER INTERNEN REVISION Finanzen, Betriebswirtschaft, Compliance, IT und der jewei- ligen Branche sind notwendig. Als ob das nicht schon genug wäre, wird sich mit der zunehmenden Datengetriebenheit der Unternehmungen und der Gesellschaft die interne Revi- sion auch Kompetenzen in Data Science aneignen müssen. Aber nicht nur technisches und statistisches Know-how ist gefragt. Um Data Science erfolgreich anwenden zu können, benötigt es auch Soft Skills wie Neugier, Kreativität und Kommunikationsfähigkeit. Tom Davenport, Professor an der Harvard Business School, hat 2012 das Kompetenzprofil eines Data Scientist wie folgt beschrieben: «… a hybrid of data hacker,analyst,communicator,andtrustedadviser.Thecombination is extremely powerful – and rare.» [10] Da Data Science eine interdisziplinäre Wissenschaft ist, kann sich das Potenzial nicht voll entfalten, wenn eine oder mehrere Disziplinen wenig ausgeprägt sind oder vollstän- dig fehlen. Abbildung 5 zeigt, dass die Kompetenzen Pro- grammierung (Hacking Skills), Statistik und branchenspe- zifischesresp.fachlichesKnow-hownotwendigsind,umden Anforderung von Data Science gerecht zu werden. Programmierkenntnisse werden deshalb benötigt, weil die Extraktion der Daten aus den verschiedenen IT-Systemen oft nicht standardisiert werden kann. Vor der Integration in die Analyseumgebung müssen die Daten in den meisten Fäl- len transformiert werden. Dafür müssen ETL-Scripts sowie SQL- resp. NoSQL-Programme erstellt werden. Statistische Methoden oder Simulationsalgorithmen sind in den statisti- schen Softwarepaketen in den meisten Fällen ein integraler Bestandteil des Funktionsumfangs. Die Analysen werden dementsprechend durch die Tools geführt und unterstützt. Nichtsdestoweniger muss für jedes Problem individuell die richtigestatistischeMethodegewähltwerden,waseinigesan Grundlagenkenntnissenerfordert.DieResultatemüssenauf ihre statistische Relevanz hin überprüft und in den Gesamt- kontext der Unternehmung und der Branche eingebettet und interpretiert werden können. Da in den seltensten Fäl- len ein Revisor über sämtliche oben genannten Kompeten- zen verfügt, empfiehlt es sich, die Kompetenzen wenigstens im Team resp. in der Gruppe verfügbar zu haben. Kann auch das nicht gewährleistet werden, ist bei Bedarf ein Joint Audit mit einem externen Data Scientist vorstellbar. In diesem Fall begleitet der Data Scientist das Revisionsteam im Rahmen eines Audits. Parallel zu den regulären Prüfhandlungen er- folgt eine explorative Datenanalyse mit zyklischen Feedback- schlaufen mit dem Revisionsteam und den revidierten Ein- heiten. 7. FAZIT Die fortschreitende Digitalisierung in der Finanz- und Versi- cherungswirtschaft stellt die interne Revision vor neue Her- ausforderungeninderWahlderPrüfmethodik.DataScience bietet Mittel und Wege, um die Analyse von Datenmassen als Prüfschritt innerhalb einer Revision zu integrieren. Die Kombination von Data Science und explorativer Vorgehens- methodik verfügt über grosses Potenzial, um Mehr- und Neuigkeitswert zu generieren. Dieses Potenzial ermöglicht es der internen Revision, ihre Aufgabe im Rahmen der TLoD wahrzunehmen. n Anmerkungen: 1) EMC, Data Science and Big Data Analytics, John Wiley Sons; 2015, S. 12. 2) IIA-IPPF-Standard 2120.A1. 3) EMC, Data Sci- ence and Big Data Analytics, John Wiley Sons; 2015, S. 28. 4) Prof. Dr. Peter Maas, Instituts für Ver- sicherungswirtschaft der Universität St. Gallen, Big Data in der Versicherungswirtschaft, 2014. 5) EMC, Data Science and Big Data Analytics, John Wiley Sons; 2015, S. 14. 6) Vgl. http://nosql-database.org. 7) Vgl. Mike Loukides, Big Data Now, O’Reilly Radar, S. 9. 8) Vgl. Mike Loukides, Big Data Now, O’Reilly Radar, S. 11. 9) In Anlehnung an Teradata Enterprise Access for Hadoop, 2015, http://www. teradata.com/Teradata-Enterprise-Access-for-Had oop/?LangType=1033LangSelect=true. 10) Thomas H. Davenport, Harvard Business Review, October 2012, https://hbr.org/2012/10/data-scientist-the-se- xiest-job-of-the-21st-century. 11) http://drewcon- way.com/zia/2013/3/26/the-data-science-venn-dia gram. « Parallel zu den regulären Prüfhandlungen erfolgt eine explorative Datenanalyse mit zyklischen Feed- back-schlaufen mit dem Revisionsteam und den revidierten Einheiten.» « Data Science bietet Mittel und Wege, um die Analyse von Datenmassen als Prüfschritt innerhalb einer Revision zu integrieren.» Abbildung 5: DAS DATA-SCIENCE-KOMPETENZ- MODELL NACH DREW CONWAY [11] Data Science Machine Learning Danger Zone Hacking Skills Math and Statistics Knowledge Traditional Research Substantive Expertise

×