Fraunhofer IAO Blog Header

Digitale Transformation

Triple KI: Zu Risiken und Nebenwirkungen für den Menschen

| 16. März 2022 | Kommentare
Blogreihe Data Science
Blogreihe Data Science
Triple KI – Data Science durchgängig gedacht! Claudia Dukino und Damian Kutzias promovieren zu der Frage, wie datenbasierte Projekte erfolgreich zu anwendbaren KI-Lösungen umgesetzt werden können. In einer gemeinsamen Blogreihe bündelt das KI-Tandem seine Kompetenzen und Forschungsergebnisse und veranschaulicht, wie die Verzahnung von Prozessen, Tätigkeiten und Technologien von der Ideengenerierung bis hin zur Inbetriebnahme neuer Lösungen in Unternehmen Mehrwerte schaffen kann.

Lange Zeit wurde von den Medien die Angst geschürt, dass KI (Künstliche Intelligenz) über kurz oder lang unsere Arbeit übernehmen wird. Es ist eine Tatsache, dass durch die zunehmende Digitalisierung, Augmentierung und Automatisierung mittels KI einige Jobs ihre Daseinsberechtigung verlieren und durch Technik ersetzt werden können. Dies trifft beispielsweise in der Produktion zu, wenn es darum geht, schwere Tätigkeiten zu unterstützen oder Qualitätssicherung für Produkte zu übernehmen. Es gibt aber auch Beispiele, wo Mehrwerte durch KI entstehen, ohne gleich Jobs zu kosten: In den sachbearbeitenden Bereichen eines Unternehmens sind bspw. häufig Entlastungen bei den Routinen des täglichen Arbeitsaufkommens von den Mitarbeitenden gewünscht. Solche Unterstützungen sind an vielen Stellen notwendig, um dem hohen Aufkommen an Anfragen, Prüfungen von Unterlagen, Auswahlprozessen oder Anforderungen in Logistik und Online-Handel angemessen begegnen zu können. Niemand wartet gern und der Anspruch von außen ist oftmals eine umgehende Reaktion, z. B. auf eine Anfrage.

Mehr lesen »

Triple KI: Zu Risiken und Nebenwirkungen der Technik

| 15. März 2022 | Kommentare
Blogreihe Data Science
Blogreihe Data Science
Triple KI – Data Science durchgängig gedacht! Claudia Dukino und Damian Kutzias promovieren zu der Frage, wie datenbasierte Projekte erfolgreich zu anwendbaren KI-Lösungen umgesetzt werden können. In einer gemeinsamen Blogreihe bündelt das KI-Tandem seine Kompetenzen und Forschungsergebnisse und veranschaulicht, wie die Verzahnung von Prozessen, Tätigkeiten und Technologien von der Ideengenerierung bis hin zur Inbetriebnahme neuer Lösungen in Unternehmen Mehrwerte schaffen kann.

»Hilfe, ich wurde gehackt!«, »Mein System wurde von einem Virus befallen!« oder »Jemand hat meine Daten abgegriffen und entschlüsselt!«. Wer kennt diese Fälle nicht zumindest aus dem näheren Umfeld oder den Nachrichten? Kriminelle Vorkommnisse wie die Geiselnahme von Daten zur Erpressung sind leider keine Seltenheit im digitalen Zeitalter. Doch wie verhält es sich mit künstlicher Intelligenz (KI), wenn es um Schutz und Sicherheit geht?

Mehr lesen »

Störungen in vernetzten IT-Systemen: Der Praxischeck

| 8. Februar 2022 | Kommentare

Mit dieser Blogreihe beleuchte ich die unterschiedlichen Aspekte und Dimensionen der Störungserkennung. Für Unternehmen kann ein gutes Investment in die Vorbeugung von Störungen in vernetzten IT-Systemen einen erheblichen Nutzen bringen. Nicht nur Kosten und Personalressourcen werden damit gespart, sondern auch die eigene Unternehmensstrategie gestärkt. Hierfür braucht es aber Know-how über die technischen, methodischen und technologischen Ansätze für eine nachhaltige Verankerung der Störungserkennung im Unternehmen. In der Theorie hört sich das sehr gut an, wie sieht es aber in der gelebten Praxis aus? Inwieweit wird die Störungserkennung in Hinblick auf Standardisierung und zukünftige Entwicklungen in Unternehmen gelebt und welche Anforderungen ergeben sich daraus?

Mehr lesen »

Störungen in Vernetzten IT-Systemen: Drei Dimensionen der Software-Qualitätssicherung

| 28. Januar 2022 | Kommentare

Qualität statt Quantität – Dies gilt auch für den Bereich der Softwareentwicklung. Viel Code kann unübersichtlich sein, wodurch Fehler leichte Eintrittskarten innerhalb von IT-Systemen bekommen können. Im Hinblick auf vernetzte IT-Systeme, ist die Sicherung der Softwarequalität als Ganzes eine sehr wichtige Komponente. Vernetzte IT-Systeme, die eben auch aus vielen Softwarekomponenten bestehen, können Defizite in der Softwarequalität, wesentliche Störungen wie Systemfehler oder Ausfälle verursachen. Softwarequalität gilt es somit zu sichern. Nach der sogenannten »Rule of Ten« der Fehlerkosten steigen die Kosten der Fehlerbehebung in jedem Schritt der Wertschöpfungskette eines Produkts – in diesem Fall die Software – um den Faktor 10. Ganze 20.000 Euro könnten so gespart werden, wenn der Fehler, dessen anfängliche Behebung 200 Euro betragen würde, nicht erst nach drei Phasen – der Konzeption, Implementierung und des Vertriebs – behoben werden würde. Es lohnt sich also massiv, von Anfang an in die Sicherheit der Softwarequalität zu investieren, um Störungen vorzubeugen und vor allem Personalressourcen und Kosten zu sparen. Dabei müssen aber verschiedene Dimensionen berücksichtigt werden, um die Software-Qualitätssicherung Ihres Unternehmens im Bereich Softwareentwicklung nicht nur aufs nächste Level zu heben, sondern auch nachhaltig zu verankern. Im Folgenden möchte ich die organisatorische, konstruktive und analytische Dimension vorstellen und damit auch beleuchten, warum diese bei der Implementierung von Software nicht ins Hintertreffen geraten sollten.

Mehr lesen »

Pioniere für ländliche Gemeinden – wie aus Leerstand Innovationsräume entstehen können

| 11. Januar 2022 | Kommentare

Innovative, kreative und digitale Lösungen entstehen nur in einer hippen Großstadt? Weit gefehlt! Vor allem im ländlichen Raum schlummern wertvolle Innovationskräfte, die dringend geweckt und entfesselt werden müssen! Die oftmals von Leerstand geprägte Siedlungsstruktur im ländlichen Raum bietet vielerlei Möglichkeiten, Innovationsorte zu gründen, um so gegen Abwanderung und demografischen Wandel zu wirken. Doch wie kann es gelingen, leerstehende Gebäude wiederzubeleben, um innovative und kreative Köpfe zu vereinen und eine Innovationskultur aufzubauen?

Mehr lesen »

Störungen in Vernetzten IT-Systemen: 5 Technologien, die Sie unbedingt kennen sollten

| 17. Dezember 2021 | Kommentare

Vernetzte IT-Systeme zeigen eine große Komplexität aufgrund ihres Aufbaus dynamischer und skalierbarer Komponenten. Die Komplexität begünstigt Störungen und bedarf somit konkreten und in der Praxis anwendbaren technologischen Lösungen. In den letzten Blogbeiträgen habe ich einen Überblick über Methoden und Techniken gegeben, um Störungen in vernetzten IT-Systemen zu erkennen und zu beheben. Wie steht es aber um die konkreten Technologien, die eine Sammlung von Techniken und Methoden verwenden? Über diese Technologien, die in der Praxis existieren, möchte ich Ihnen gerne einen Überblick geben. Dazu gehören unter anderem das Simple Network Protokoll oder Business Intelligence. Der Vorteil dieser Technologien ist, dass diese schon eine Kombination aus Methoden und Technologien von Haus aus mitbringen. So ist es möglich, mit geringem Aufwand grundlegende Funktionalitäten für die Störungserkennung zu etablieren.

Mehr lesen »

Störungen in Vernetzten IT-Systemen: Eine Toolbox an Techniken für den praktischen Einsatz

| 7. Dezember 2021 | Kommentare

Störungserkennung spart Geld, Zeit und Ressourcen und müsste daher in der Unternehmensstrategie fest verankert sein. Wie sieht aber die Realität in Unternehmen aus? In Zeiten von immer stärker vernetzten IT-Systemen ist es aufgrund der Komplexität immer eine große Herausforderung, diese zu überwachen und Störungen mit ihren Ursachen zu erkennen. Es führt aber kein Weg dran vorbei, diesem Thema mehr Aufmerksamkeit zu schenken. Denn Dienste müssen immer zur Verfügung, die Antwortzeiten schnell und Updates reibungslos integrierbar sein. In den letzten zwei Blogbeiträgen habe ich unter anderem Methoden zur Störungserkennung wie das Logging, Tracing, Detecting und Monitoring vorgestellt. Aber wie lassen sich diese Methoden in der Praxis umsetzen? Es sind bestimmte Techniken notwendig, um die erwähnten Methoden für den individuellen Use Case im Unternehmen anwenden zu können (Abbildung 1). Mit diesem Blogbeitrag möchte ich Ihnen einen Überblick über diese Techniken, Entscheidungshilfen und Empfehlungen an die Hand geben.

Mehr lesen »

Was macht einen Quantencomputer so mächtig? Teil 2: Der Quantenparallelismus

| 2. Dezember 2021 | Kommentare

Quantencomputing (QC) - Blogreihe zu Quantencomputing
»Der Quantencomputer rechnet parallel und ist um ein Vielfaches schneller. Mit ihm lassen sich zum Beispiel Natursimulationen erstellen oder komplizierte Logistikketten optimieren oder Milliarden von Zahlungsströmen in Echtzeit steuern, während komplexe regulatorische Vorgaben berücksichtigt werden.« Dieses Zitat aus einem Artikel von Focus Online haben wir bereits im ersten Blogbeitrag dieser Serie kennengelernt, und zwar als Beschreibung des sogenannten Quantenparallelismus. Wir haben auch behauptet, dass dieser Effekt einer der Grundpfeiler für die Mächtigkeit des Quantencomputers ist. Wir haben aber nicht erklärt, was der Quantenparallelismus eigentlich genau ist, noch haben wir die Behauptung über die Mächtigkeit erklärt. Jetzt, wo wir die Grundlagen des Quantencomputing aus dem ersten Blogartikel kennen, werden wir dies schleunigst nachholen.
Mehr lesen »

Was macht einen Quantencomputer so mächtig? Teil 1: Qubits, Superposition und weitere Grundlagen

| 1. Dezember 2021 | Kommentare

Quantencomputing (QC) - Blogreihe zu Quantencomputing
In den letzten Monaten und Jahren ist ein regelrechter Hype um Quantencomputer entbrannt. Von »Rechnen mit Überlichtgeschwindigkeit« (Quarks), »Revolution der Computertechnik«, welche die »nächste industrielle Revolution« (Tagesschau) auslösen könnte oder gar der »Quantenüberlegenheit« von Quantencomputern über jeden noch so großen Hochleistungsrechner (Süddeutsche Zeitung) ist die Rede. Insbesondere in Hinblick auf realitätsnahe Problemstellungen müssen Quantencomputer zwar noch größer und fehlertoleranter werden, aber jenseits dieser technischen Hürden ist das Potenzial von Quantencomputern riesig: »Der Quantencomputer rechnet parallel und ist um ein Vielfaches schneller. Mit ihm lassen sich zum Beispiel Natursimulationen erstellen oder komplizierte Logistikketten optimieren oder Milliarden von Zahlungsströmen in Echtzeit steuern, während komplexe regulatorische Vorgaben berücksichtigt werden.«. In diesem Zitat aus einem Artikel von Focus Online wird der sogenannte Quantenparallelismus beschrieben. Ein Effekt, den es nur auf dem Quantencomputer gibt und der – neben der Verschränkung – ein Grundpfeiler für die Mächtigkeit des Quantencomputers ist.
Mehr lesen »
Nach oben