RiskNET eLibrary


OpRisk


Das Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) publizierte Anfang 2015 die "Sicherheitsstrategie für die Güterverkehrs- und Logistikwirtschaft – Schutz kritischer Infrastrukturen und verkehrsträgerübergreifende Gefahrenabwehr". Dieses Dokument offenbart erhebliche Erkenntnisdefizite hinsichtlich der Kritikalität logistischer Infrastrukturen durch potenzielle Bedrohungen wie Naturkatastrophen, Unfälle oder terroristische Angriffe. Damit wird deutlich: Deutschland ist auf Risiken, die nach Eintritt einen wesentlichen Einfluss auf die logistische Infrastruktur haben, nur bedingt vorbereitet. Im Rahmen des Projektes RIMA-KIL "Risikomanagement für kritische Infrastrukturen in der Logistik" wurden nun verschiedene Ansätze zur Identifizierung und Bewertung von Risiken für die kritische logistische Infrastruktur entwickelt, untersucht und katalogisiert. Das entstandene Methodenset, welches sich Methoden sowohl des Risikomanagements als auch des Operations Research bedient, gibt dem Anwender einen umfassenden Überblick über existierende und praxiserprobte Ansätze. Ferner gibt es in vielen Fällen eine Bewertung über die Anwendbarkeit im logistischen Kontext an.
Romeike 1253 Downloads 03.07.2017
Datei downloaden
Die Aufnahme zusätzlichen Fremdkapitals für Investitionen "hebelt" die Eigenkapitalrendite im besten Fall deutlich nach oben. Eine simple Investitionsbetrachtung über den Kapitalwert verdeckt jedoch die dahinter stehenden Unsicherheiten und Risiken. Über eine Verbindung des financial leverage mit dem operating leverage und einer begleitenden Monte-Carlo-Simulation wird am Beispiel eines Handelsunternehmens rasch deutlich weshlab diese Strategie riskanter sein kann als sie auf den ersten Blick erscheint [erschienen in Controller Magazin Heft 3/2017, mit freundlicher Genehmigung]
rieg0 1297 Downloads 28.05.2017
Datei downloaden
Auch in der sechsten Ausgabe des FIRM Jahrbuchs berichtet die "Association for Risk Management and Regulation" auf rund 260 Seiten über aktuelle Themen aus der Welt des Risikomanagements und der Regulierung.
Romeike 5124 Downloads 13.04.2017
Datei downloaden
Break-Even-Rechnungen sind ein beliebtes Mittel zur Beurteilung der Chancen und Risiken, haben aber in ihrer traditionellen Form Grenzen. Sie lassen sich recht leicht um stochastische Ansätze erweitern. Das erlaubt eine tiefergehende Analyse und eine Integration in Planung und Kontrolle. [Veröffentlicht in: Controller Magazin Heft Juli/August 2015, S. 76-82]
rieg 2103 Downloads 13.09.2016
Datei downloaden
Dieser Beitrag liefert eine theoretische Klärung des Risikobegriffs für die interdisziplinäre Risikoforschung mit der pragmatischen Absicht zur potentiellen Verbesserung der Risikoidentifikation zugleich für das Risikomanagement. Einerseits gibt es verschiedene Vorschläge zur Definition und Konzeption von "Risiko" und andererseits herrscht eine Diskrepanz zwischen objektiven (realistischen) und subjektiven (relativistischen bis konstruktivistischen) Ansätzen. In Übereinstimmung mit der Argumentation von T. Aven ist jede Risikoevaluation abhängig von der Qualität und Gültigkeit von Daten und der Verlässlichkeit der Evaluation selbst, weshalb eine objektive Risikoevaluation nicht möglich erscheint. Einen Ausweg daraus bietet das Beachten von Vorwarnungen, wie es mit verschiedensten Konzepten durchgeführt wird: "Near Misses" aus der Industrie, "Critical Incidents" aus der Medizin, "Early Warning Signals" aus der Ökologie, "Weak Signals" aus der Unternehmensführung. Auf dieser Grundlage lässt sich ein Risikobegriff beschreiben, welcher theoretisch konsistent die verschiedenen Ansätze stringent verknüpft und zugleich realitätsnahe Risikoevaluationen (Erkennung + Identifikation + Bewertung) erlaubt, dabei aber typische Schwächen vermeidet. Dieser Risikobegriff basiert auf der Idee einer ständigen Änderung der Informationsgrundlage und erlaubt daher in einer erweiternden Anwendung Risikotrendanalysen. Dies wird mittels der Übertragung des Konzepts von Near Misses im Kontext der Technikfolgenabschätzung demonstriert. Dieser Beitrag ist daher eine tentative Erprobung der vorgestellten Grundlegung und weiterführende Fragen wären genauso zu klären, wie eine weitere empirische Ausweitung bei ausreichender Eignung.
brunnhuber-abed-navandi 2981 Downloads 13.09.2016
Datei downloaden
Die modernen Orakel unserer digitalen und vernetzten Zeit heißen Big Data und Datenanalysen. Datensammler wie Google und Amazon vermessen die Welt, erstellen Persönlichkeitsprofile und durchforsten blitzschnell riesige Datenmengen auf Muster und Korrelationen, um Voraussagen in Echtzeit zu ermöglichen. Sie erlauben einen gezielten Blick in die Kristallkugel. Davon versprechen sich Staaten, Forschungseinrichtungen und Wirtschaftsunternehmen exakte Voraussagen, um die Risiken des eigenen Tuns zu minimieren und Chancen des zukünftigen Handelns besser einschätzen zu können. Mehr noch geht es darum, das Wissen in Organisationen strukturiert zu nutzen. Insgesamt surfen rund 3,2 Milliarden Menschen im Internet und produzieren permanent Daten über ihre Mobiltelefone, Fitnessbänder, smarte Uhren, vernetzte Navigationsgeräte und Autos. Online-Versandhändler kennen unsere geheimen Wünsche besser als wir selber. Aus Twitter-Nachrichten lassen sich politische Einstellungen sehr gut ableiten. Aus Daten und Algorithmen lassen sich potenzielle Straftaten antizipieren, bevor sie überhaupt geplant oder begangen wurden.
Romeike 2469 Downloads 11.05.2016
Datei downloaden
The modern oracles of our networked digital age are Big Data and data analytics. Data gatherers such as Google and Amazon survey the world, create personality profiles and comb through huge volumes of data at lightning speed for patterns and correlations, allowing them to make predictions in real time. They provide a targeted look into the crystal ball. States, research institutions and commercial companies hope that they can provide accurate predictions to minimise the risk of their own actions and to better assess the opportunities for future activities. It is also about making structured use of the knowledge in organisations. Overall, around 3.2 billion people use the Internet, producing permanent data through their mobile phones, fitness bands, smart watches, networked navigation units and cars. Online sellers know our secret desires better than we do ourselves. Political attitudes can be accurately ascertained from Twitter messages. Data and algorithms enable potential crimes to be anticipated before they are even planned or committed.
Romeike 3590 Downloads 11.05.2016
Datei downloaden
Es ist u.a. Aufgabe der Internen Revision, die Wirksamkeit der definierten Kontrollen in den eingesetzten rechnungslegungsrelevanten ERP-Systemen zu prüfen und möglichst zu bestätigen. Es droht der Verlust der Ordnungsmäßigkeit der Buchführung, wenn im IT-System Programme vorhanden sind, die es ermöglichen, dass nach Belieben sowohl Daten als auch Programmcode und Abrechnungslogik ohne Nachvollzug der Aktivitäten und Verursacher manipuliert werden können. Der nachfolgende Artikel stellt die Ergebnisse einer limitierten Untersuchung dar, in wie vielen Unternehmen in produktiven SAP-Systemen derartige Programme vorkommen und wer sie üblicherweise in die Umgebungen implementiert. Dieses Thema tangiert die Grenzen des Systemeinsatzes und kann bis zur Ordnungswidrigkeit des IT-Systemeinsatzes führen. Obwohl der deutsche Rechtsrahmen spezifisch ist, wird dieses Thema auch in anderen Ländern von Interesse sein, denn SAP ist ein über die Landesgrenze hinweg tätiges Unternehmen, dessen Produkte weltweit und konsolidierend im Einsatz sind. Es sollte gleichsam auch im Interesse von Wirtschaftsprüfungsunternehmen sein.
wildensee 1480 Downloads 16.03.2016
Datei downloaden
Vorteile von Simulationen sind breitgefächert. Simulationen erlauben beispielsweise Entscheidungen im Vorfeld intensiv zu analysieren und bilden eine ideale Brücke zwischen Analyse, Erfahrungen und Intuition. Dennoch bestehen nach wie vor Vorbehalte gegenüber Simulationen, die als (zu) komplex gelten und einen hohen Zeitbedarf mit sich bringen können. Der vorliegende Ergebnisbericht liefert Implikationen und empirische Ergebnisse zum Einsatz von Simulationen im deutschsprachigen Raum. Diese sind untergliedert nach Methoden, dem Umgang mit einzelnen Methoden inklusive deren Herausforderungen sowie dem vorhandenen Know-how und verfügbaren Quellen. Motiviert wurde die vorliegende Studie durch erste empirische Ergebnisse zum Umgang mit Simulationsmethoden im deutschsprachigen Raum aus dem Jahre 2011 (Meyer/Romeike/ Spitzner 2012). Die aktuelle Studie, durchgeführt in 2014, greift Teilaspekte dieser Erhebung auf und hat den Anspruch, die generellen Ergebnisse aus dem Jahr 2011 auf zeitliche Konsistenz und Stabilität zu prüfen. Weiterhin besteht ein Hauptziel im Erlangen eines Überblicks zum aktuellen Wissensstand bezüglich Simulationsmethoden auf verschiedenen Unternehmensebenen. Abschließend wird ein besonderes Augenmerk auf die Haltung von Anwendern von Simulationen gegenüber dieser Methode gelegt.
1869 Downloads 01.03.2016
Datei downloaden
Banken und Versicherungen müssen ihre operationellen Risiken quantifizieren – regulatorisch in Säule I wie auch ökonomisch in Säule II. Dafür stehen zahlreiche Methoden und Modelle zur Verfügung. Eine Analyseplattform für das OpRisk-Management muss möglichst flexibel und anpassungsfähig sein, damit das Risikocontrolling effizient und wirtschaftlich arbeiten kann. Analyse-Frameworks wie Base SAS® und Open Source R geben Endnutzern die benötigte Flexibilität, sollten jedoch an die professionellen Anforderungen angepasst werden. Das Whitepaper zeigt exemplarisch die ideale Symbiose von fachlicher Modellkonzeption und technischer Implementierung auf.
christof-born 1048 Downloads 24.09.2015
Datei downloaden