Ausgabe 119 - November 2015

Logo Dr. Wolfgang Martin Team

NEWSLETTER

Ausgabe 119
November 2015

Newsletter Dr. Wolfgang Martin Team

 Sollte der Newsletter nicht richtig angezeigt werden, dann klicken Sie bitte hier »


Themenübersicht

Editorial

Kundendatenmanagement im Mittelstand – entmystifiziert - mehr »

Anzeigen

Viscovery - mehr »

Merger & Acquisitions 

Kaufwelle: Daten- und Analytik-Anbieter sowie Cloud-Services im Fokus. - mehr »

Zahlen

Cloud boomt, aber das langt nicht immer, um gute Zahlen vorzulegen, siehe IBM. - mehr »

Trend

Special: Künstliche Intelligenz auf dem Vormarsch. - mehr »

Kurzmeldungen

Neues zu Big Data, Analytik, Information Management, zur Cloud und Digitalisierung sowie der IT. - mehr »

Und zum Schluss…

CIO-Horror. - mehr »

 
Editorial
Kundendatenmanagement im Mittelstand - entmystifiziert 

 

„Professionelles Kundendatenmanagement? Nein, danke! Die Kundendaten sind doch in Ordnung, und wenn es mal Probleme geben sollte, dann setzen wir ein paar Mitarbeiter dran, die werden das schon richten. Werkzeuge brauchen wir nicht, die sind in der Handhabung zu komplex und vor allem zu teuer. Außerdem haben wir ja überschaubar große Datenmengen.“ Marktbefragungen, wie die neulich von dem internationalen Marktforschungsinstitut YouGov im Auftrag von Uniserv1 in der Region DACH durchgeführte, zeigen, dass das genau die Mythen sind, die man im Mittelstand zu Kundendatenmanagement antrifft. Auf diese Art und Weise verlieren Mittelständler leider viel Geld, denn ein professionelles Kundendatenmanagement ist eine Investition, die auch dem Mittelstand einen guten und schnellen Return on Invest liefert. Dies gilt im Zuge der Digitalisierung der Welt umso mehr. Insbesondere deutsche Unternehmen müssen hier aufpassen, um nicht den Anschluss zu verpassen2.

 

Kundendatenmanagement: kritischer Erfolgsfaktor im Wettbewerb um Kunden und Marktanteile 

 

Die Digitalisierung der Welt ist unaufhaltbar. Cloud, Social, Mobile, Big Data und das Internet der Dinge revolutionieren die Welt, in der wir leben, genauso grundlegend wie seinerzeit die Dampfmaschine, die die Gesellschaft, die Wirtschaft, die politischen Systeme bis hin zu Staatensystemen aufbrach und neu ordnete. Im Mittelpunkt dieser Umwälzungen steht – damals wie heute – der Mensch, dessen Lebens- und Arbeitsbedingungen sich entsprechend umwälzen. Dem kann sich ein Mittelständler genauso wenig entziehen wie ein Großunternehmen. Im Gegenteil: Die Digitalisierung der Welt bietet kleineren Unternehmen sogar die große Chance, mit den Großen auf Augenhöhe zu gehen, denn durch die digitale Revolution sinken IT-Kosten deutlich und IT-Komplexität wird erheblich reduziert, so dass auch kleine Unternehmen ohne teure IT-Spezialisten im eigenen Unternehmen Zugang zu bisher nicht-beherrschbaren IT-Diensten bekommen und diese wertschöpfend im Unternehmen einsetzen können.

 

Das gilt insbesondere im Wettkampf um den Kunden. Kundenerlebnismanagement ist in der digitalisierten Welt kritischer Erfolgsfaktor Nummer 1. Eine 360°-Sicht auf den Kunden ist hier die Voraussetzung. Es gilt, die Kundendaten mit externen Daten (demografische, soziografische, firmografische, geografische etc.) kontinuierlich anzureichern und stets aktuell zu halten. Das ist im Zeitalter der Digitalisierung von Unternehmen schwieriger denn je: Eine 360°-Sicht ist ohne die entsprechende Technikunterstützung kaum mehr erreichbar. Softwarelösungen zur Schaffung einer 360°-Sicht werden somit unabdingbar – ohne sie ist man unabhängig von der Unternehmensgröße praktisch chancenlos. Dennoch herrscht im Mittelstand die Meinung vor: Professionelles Kundendatenmanagement bei uns: nein, danke!

 

Was Mittelständler von professionellem Kundendatenmanagement halten

 

Die kürzlich von YouGov im Auftrag von Uniserv durchgeführte Online-Umfrage zeigt ebenso wie andere Umfragen zu gleichem Thema3 die Lücke, die zwischen dem Verständnis von professionellem Kundendatenmanagement und der potenziellen Leistung von Kundenmanagement in und bei mittelständischen Unternehmen herrscht4. Von den 205 Befragten bei der Uniserv-Umfrage glauben 69%, dass 'Unsere Kundendaten stets einheitlich, vollständig und aktuell.' sind, und 87% sagen 'Ich vertraue im Tagesgeschäft darauf, dass unsere Kundendaten korrekt sind.' Dagegen sagen 84%: ‚Die Verwaltung und Pflege von Kundendaten erfolgt bei uns meist manuell‘. Das zeigt: Ein professionelles Kundendatenmanagement findet nicht statt, da man im Mittelstand offensichtlich der Meinung ist, alles sei in Ordnung oder sich aufgrund von Missverständnissen „Mythen“ geschaffen hat, die besagen, dass man sich einen Invest in professionelles Kundendatenmanagement nicht leisten könne oder sogar nicht leisten brauche, weil man Mittelständler sei.

 

Was schlechte Datenqualität bei Kundendaten kostet

 

Was man im Mittelstand leicht vergisst, sind die Folgekosten von schlechter Datenqualität, denn Daten mit schlechter Qualität kosten Geld, deutlich mehr Geld, als der Aufwand, eine gute Datenqualität aufrecht zu erhalten.

 

Wie kann man diese Kosten monetär bewerten? Man kann natürlich die Kosten pro Prozess einzeln errechnen. Es gibt aber auch eine einfache Faustregel, erstellt durch Melissa Data5: die 1-10-100 Regel, die besagt, dass das Sicherstellen von Datenqualität bei der Dateneingabe pro Datensatz durchschnittlich $1,00 kostet6, bereits $10,00 kostet, wenn man mit Werkzeugen von Zeit zu Zeit eine Datenqualitätsmaßnahme durchführt, aber $100,00 kostet, wenn man wie typisch im Mittelstand, nichts tut. Was heißt das für ein mittelständisches Unternehmen? Nehmen wir ganz vorsichtig an, ein Mittelständler habe „nur“ 5.000 Kundendatensätze, dann liegen die Folgekosten von „nichts tun“ im Kundendatenmanagement bei $500.000 gegenüber $50.000, wenn man wenigstens von Zeit zu Zeit mit Werkzeugen im Kundendatenmanagement arbeitet. Setzt man sogar Kundendatenmanagement in Echtzeit bei der Datenerfassung ein, dann reduziert sich der Aufwand sogar auf gerademal $5.000.

 

Mythen über Kundendatenmanagement im Mittelstand

 

Damit haben wir den Mythos Nummer 1 über Kundendatenmanagement im Mittelstand widerlegt:


1. Professionelles Kundendatenmanagement ist für den Mittelstand zu teuer!

 

Stimmt also nicht. Professionelles Kundendatenmanagement rechnet sich, denn den Kosten, die schlechte Daten verursachen, stehen überschaubare Investitionssummen gegenüber. Das ist einfache Mathematik. Die Wertschöpfung durch professionelles Kundendatenmanagement im Mittelstand hängt praktisch nur vom Volumen der Kundendaten ab. Das heißt aber auch, dass mindestens jeder Mittelständler im B2C ein professionelles Kundendatenmanagement braucht und auch wirtschaftlich darstellen kann! Smarte Kundendaten zahlen sich aus.

 

2. Professionelles Kundendatenmanagement lohnt sich erst bei großen Datenmengen ab mehreren Hunderttausend Adressen!

 

Stimmt auch nicht. Wir haben schon gesehen, dass sich ein professionelles Kundendatenmanagement bei einigen Tausend Kundendatensätzen lohnt. Ob es sich auch für einige Hundert oder wenige Tausend Datensätze lohnt, ist eine einfache Rechnung, die jedes Unternehmen für sich aufstellen sollte. Wie schon gezeigt, bewertet man dazu die Kosten schlechter Kundendaten, die in den Prozessen entstehen, in denen Kundendaten verwendet werden. Dann berechnet man die Investitions- und die Folgekosten sowie die Potenziale für Umsatzsteigerung und Kosteneinsparung und hat so eine klare Entscheidungsgrundlage. Man braucht also kein Hexenwerk oder gar höhere Mathematik, um festzustellen, was schlechte Kundendaten kosten, hingegen smarte Kundendaten (ein)bringen. Durchrechnen sollte man das immer, denn in der Regel erreicht man eine Wertschöpfung.

 

Wie sieht es mit den anderen Mythen aus?

 

3. Professionelles Kundendatenmanagement ist für den Mittelstand zu zeitaufwändig!

 

Es ist richtig, dass ein professionelles Kundendatenmanagement einen Zusatzaufwand verursacht, aber welchen Aufwand kostet es, wenn man nichts tut? Dann entstehen die Aufwände an anderer Stelle im Unternehmen, und die sind nicht unerheblich: Das beginnt mit den „Eh-da-Kosten“ der manuellen Tätigkeiten im Kundendatenmanagement. Das geht weiter mit dem Zeitaufwand, der durch falsche Adressen und durch nicht mehr aktuelle Adressen (Rückläufer bei Kampagnen, Retouren im Versand) entsteht. Dazu kommen noch die Kosten, die beispielsweise durch Dubletten in den Adressen entstehen. Hier kommt auch noch das Image-Problem hinzu, wenn ein Kunde beispielsweise mehrfach Post erhält: Er gewinnt nicht gerade den besten Eindruck vom Unternehmen, was im Endeffekt zu Umsatzverlusten führen kann.

 

Zeitaufwand in professionelles Kundendatenmanagement gesteckt, spart Zeitaufwand an anderer Stelle. In der Regel gewinnt man sogar Zeit, denn je besser automatisierte Werkzeuge mit ihren Regelwerken und Wissensbasen arbeiten, desto höher ist der Zeitgewinn.

 

4. Die Einführung von professionellem Kundendatenmanagement führt zu einem unüberschaubaren Projekt!

 

Stimmt auch nicht, denn die Einführung heutiger Plattformen für professionelles Kundendatenmanagement ist software-gestützt und weitgehend automatisiert. Einführung und Betrieb arbeiten mit schlanken Prozessen nach den Prinzipien von Lean Management. Schlanke Prozesse verfolgen die Ziele „Reduktion von Kosten und Zeitbedarf“ sowie „Verbesserung der Qualität“. Sie sind pragmatisch, geradlinig und intuitiv. Sie folgen vorgegebenen Einzelschritten, verzweigen nach definierten Regelwerken, werden parallelisiert und wieder zusammengeführt, vernetzt mit anderen Schrittfolgen und gegebenenfalls auch rückgekoppelt, um einen Fehlerfall zu bearbeiten. Sie ermöglichen weiterhin ein schnelles Ändern und Anpassen der Prozesse an die Unternehmens-IT-Strukturen. Das gilt sowohl für Kundendatenmanagement-Lösungen, die man traditionell „on-premise“ lizensieren kann, als auch für Lösungen aus der Cloud.

 

Professionelles Kundendatenmanagement bietet eine nachhaltige Lösung, die nicht nur zeit- und ressourcensparend eingeführt werden kann, sondern die es auch im Betrieb erlaubt, flexibel auf Änderungen in der Datenstruktur zu reagieren: Datenquellen entstehen und versiegen, Unternehmen schließen sich zusammen oder spalten sich auf. Schlanke Prozesse im Kundenstammdatenmanagement bieten hier viele Vorteile, denn sie erlauben ein schnelles und sicheres Integrieren oder Separieren von Datenquellen sowie ein Konsolidieren von Kundendatenbeständen im Falle von Firmenübernahmen oder Verkäufen von Unternehmensteilbereichen. Mit anderen Worten: Alles bleibt nicht nur überschaubar, sondern man wird schnell und flexibel. Das sind wesentliche Erfolgsfaktoren in der digitalisierten Welt.

 

5. Professionelles Kundendatenmanagement erfordert teuer zu bezahlende Experten!

 

Auch das stimmt so nicht, denn heutige Plattformen für professionelles Kundendatenmanagement sind für „Self-Service“ in den Fachabteilungen bestens geeignet. Die schlanken Prozesse des Kundendatenmanagements fügen sich nahtlos in die Arbeitsabläufe der Mitarbeiter ein, so dass jeder im Unternehmen, der mit dem Managen von Kundendaten zu tun hat, intuitiv mit den Werkzeugen zum Kundendatenmanagement umgehen kann. Trainingsaufwendungen entstehen nur in der Verwaltung der Werkzeuge und natürlich braucht man auch etwas Erfahrung, um die Ergebnisse von beispielsweise Profiling-Werkzeugen richtig zu interpretieren und entsprechend umzusetzen. Das lässt sich aber mit einer begleitenden Beratung "on the Job“ gut erlernen. Teure Experten brauchen wir also nicht mehr.


 

Mit den besten Grüßen aus Annecy


Dr. Wolfgang Martin

 


 

 

Folgen Sie uns auf @wmartinteam


 

1 Umfrage „Kundendatenmanagement“von Uniserv, durchgeführt in Q1/2015, www.uniserv.com/unternehmen/blog/detail/article/uniserv-studie-kmus-scheuen-investments-in-technologien, Zugriff am 06.05.2015.

2 Siehe acquisa „Digitalisierung: Deutschland droht den Anschluss zu verpassen“ http://www.haufe.de/marketing-vertrieb/crm/Deutschland-droht-den-Anschluss-zu-verpassen_124_297232.html, Zugriff am 15. April 2015.

3 siehe beispielsweise Wolfgang Martin Team Research Note „Trends im Kundendatenmanagement 2014 – Ergebnisse einer Marktbefragung.“ http://www.wolfgang-martin-team.net/research-notes_dt.php, Zugriff am 14.04.2015.

4 Die Tatsache, dass Uniserv Anbieter einer professionellen Plattform für Kundendatenmanagement ist, hat also offenbar die Ergebnisse der Befragung nicht beeinflusst.

5 siehe Melissa Data Corp. „The real cost of bad data“, http://www.bitpipe.com/detail/RES/1425503970_453.html, Zugriff am 14.04.2015.

6 Beim heutigen Kurs von 1,00 EUR = $1,06 US entsprechen die genannten $-Beträge den nahezu gleichen Beträgen in EUR. (15. April 2015)

 
Anzeigen
Viscovery

 

 

Viscovery® SOMine Suite – die Plattform für visuelles Data Mining und Predictive Analytics.

 

Durch die Kombination von Self-Organizing Maps mit multivariater Statistik reduziert Viscovery die Komplexität von Big- und Small-Data-Analytik. Viscovery-Modelle erlauben die visuelle Darstellung und Analyse von hochdimensionalen Daten und ermöglichen Data Scientists und Anwendern aus den Fachabteilungen, Strukturen und Cluster in ihren Daten intuitiv zu verstehen. Mehr dazu auf www.viscovery.net.

 

Die neue Version 7 der Viscovery Data Mining Suite kommt mit einer neuen Architektur, die eine modulare Lizenzierung ermöglicht. Sie bietet zusätzliche Features für die Erstellung prädiktiver Modelle und die Exploration von Big Data. Alle Funktionen der bisherigen, eigenständigen Viscovery 6 Produkte sind jetzt über einheitliche Workflows verbunden. Schnelle, datengetriebene Entscheidungen zur Verbesserung von Geschäftsprozessen und Kundeninteraktionen sind so noch schneller möglich. Mehr dazu in der Viscovery-Pressemitteilung.


 


 

 

Neu: Viscovery SOMine 7 im Webshop oder als kostenfreie Testversion zum Download.
 

 
Merger & Acquisitions 
Kaufwelle: Daten- und Analytik-Anbieter sowie Cloud-Services im Fokus.

 

Zendesk kauft die französische BIME für $45m. Die in San Francisco ansässige Zendesk erwirbt mit der Übernahme der in Montpellier ansässigen We Are Cloud SAS das Cloud-BI-Produkt BIME Analytics. (13. Okt.) Mehr dazu bei CMSWire.

 

Red Hat kauft Open-Source-DevOps-Plattform Ansible. Red Hat will so seine Position in Hybrid-Cloud-Management, Openstack und Containern ausbauen. Finanzielle Details zur Transaktion wurden nicht gemacht. Bei Venturebeat vermutet man eine Summe von $100m. (16. Okt.) Mehr dazu in der Red-Hat-Pressemitteilung.
 

Docker kauft Tutum, einen Cloud-Service, der von Entwicklern und Systemadministratoren genutzt wird, um Docker-Applikationen bereitzustellen und zu managen. Finanzielle Details wurden nicht bekanntgegeben. (21. Okt.) Mehr dazu im Docker-Blog.

 

ICE kauft Interactive Data Holdings (IDC) für $5,2 Milliarden. Intercontinental Exchange Inc. erweitert durch diese Übernahme sein Datenservice-Geschäft. IDC handelt mit Preis-Information. Zu den über 5.000 Kunden zählen insbesondere Asset-Managers, Hedge Funds, Banken und Versicherungen. ICE, der der New York Stock Exchange gehört, will $3,65 Milliarden in bar zahlen und $1,55 Milliarden in seinen Aktien, die es von Silver Lake and Warburg Pincus zurückkaufen wird. (26. Okt.) Mehr dazu bei Information Management.

 

Intel kauft mit Saffron einen Spezialisten in Cognitive Computing. Chip- und Netzwerk Ausrüster (siehe auch folgende Meldung) bereiten sich auf das Internet der Dinge vor und dringen vor allem in das Fahrwasser von IBM ein. Intels Interesse an Saffron ist vielfältig wie Josh Walden in einem Blog-Beitrag  schreibt: "We see an opportunity to apply cognitive computing not only to high-powered servers crunching enterprise data, but also to new consumer devices that need to see, sense and interpret complex information in real time. Big data can happen on small devices, as long as they're smart enough and connected. Saffron's technology, deployed on small devices, can make intelligent local analytics possible in the Internet of Things." Finanzielle Details der Transaktion wurden nicht bekannt gegeben. (26. Okt.)

 

Cisco kauft Kölner IoT-Start-up Parstream und will sich so mittels Datenmanagement und Analyse fürs Internet der Dinge (IoT) verstärken. Finanzielle Details wurden nicht bekannt gegeben. (26. Okt.) Mehr dazu in einem Cisco-Blogbeitrag.

 

IBM verstärkt Watson für IoT mit der Übernahme der Dienste der Weather Company. IBM beabsichtigt, die Cloud-basierten, mobilen und B2B-Dienste von The Weather Company zu übernehmen. Diese Datenplattform verzeichnet rund 26 Milliarden Anfragen täglich. IBM will diese Dienste mit Watson zusammenbringen. Die TV-Sparte "The Weather Channel" ist nicht Teil des Vertrags, soll aber zukünftig Lizenznehmer der Wetterdaten sein. Finanzielle Details wurden nicht mitgeteilt. (28. Okt.) Mehr dazu in der IBM-Pressemitteilung.

 

IBM kauft Gravitant, ein in Austin, Texas, ansässiges und sich in privatem Besitz befindliches Unternehmen, das cloud-basierte Software-Lösungen zur Planung, zum Erwerb, zum Managen oder auch zum Brokern von Software und Rechnerdienstleistungen von unterschiedlichen Anbietern herstellt. Die Gravitant-Lösungen eignen sich insbesondere für heterogene Umgebungen, in denen private und öffentliche Clouds integriert und wie eine Einheit gemangt werden sollen. IBM will die Gravitant-Lösungen in die IBM Global Technology Services Einheit eingliedern, und IBM Cloud plant, sie in Software-as-a-Service-Angebote zu integrieren. Finanzielle Details zur Transaktion wurden nicht bekannt gegeben. (03. Nov.) Mehr dazu in der IBM-Pressemitteilung.

 

Adobe kauft Digital Analytix Technologie von comScore. Während comScore gerade dabei ist für $732m Rentrak zu übernehmen, hat man Digital Analytix, eine andere Geschäftseinheit, an Adobe verkauft. Finanzielle Details sind noch nicht bekannt, aber die Transaktionssumme dürfte sich in Grenzen halten, da der Analytix-Umsatz im Q3 nur $4,85m betrug bei einem comScore-Gesamtsatz von $92,4m. Adobe will mit der Analytix-Technologie und ihren Kunden ein eigenes Analytik-Geschäft aufbauen. (5. Nov.) Mehr dazu im Adobe-Blog und bei TechCrunch.

 

Microsoft kauft Mobile Data Labs, den Hersteller der MileIQ App. Microsoft will so sein Angebot in mobiler Produktivität verstärken. Finanzielle Details wurden nicht bekannt gegeben. MileIQ ist eins der populärsten Werkzeuge im Finanzwesen auf den iOS und Android-App-Stores. (5. Nov.) Mehr dazu bei InformationWeek.

 

Google kauft Foto- und Video-Editing-Spezialisten Fly Labs, ein auf iOS-Apps spezialisiertes New Yorker Unternehmen, deren Apps aus dem Apple App Store abgeschaltet werden sollen. Funktionen dieser Apps sollen dann Teil des Bilderdienstes Google Fotos werden. (6. Nov.) Mehr dazu bei Fly Labs und TechCrunch.

 

Microsoft kauft Secure Islands. Microsoft kauft nun schon das 3. israelische Unternehmen für Security. Die Technologie soll in Microsofts Azure Rights Management Services eingebaut werden. Finanzielle Details wurden nicht bekannt gegeben, aber ZDNet spricht von einer Summe von rund $77,5m. Kunden von Secure Islands sind u.a. OSRAM, Credit Suisse, UBS und Vodafone. (9. Nov.) Mehr dazu im Official Microsoft Blog.

 

 
Zahlen
Cloud boomt, aber das langt nicht immer, um gute Zahlen vorzulegen, siehe IBM.

 

SAP im Q3/2015 im Aufwind. Im Q3/2015 stiegen sowohl die Umsätze (Non-IFRS) bei den Softwarelizenzen (um 7% auf 1,02 Milliarden Euro - währungsbereinig um 4%) als auch in der Cloud (um 116% auf 600m Euro). Der Gesamtumsatz (Non IFRS) stieg um 17% von 4,26 Milliarden Euro im Vorjahresquartal auf 4,99 Milliarden Euro (währungsbereinig um 10%) Das führte auch zu einem Anstieg des operativen Gewinns um 19% auf 1,62 Milliarden Euro. (13. Okt.) mehr dazu in der SAP-Pressemitteilung.

 

IBM schreibt das 14. Quartal mit einem Minus in Folge. Im Q3/2015 sank der Umsatz um 14% im Vergleich zum Vorjahresquartal auf $19,3 Milliarden. Hauptursache war mal wieder der starke Dollar: Währungsbereinigt und bereinigt um das System x Geschäft betrug der Rückgang nur 1%. Aber Tatsache ist auch, dass sich IBM schwer tut mit dem Wandel zum Cloud-Geschäft. Das boomt zwar entsprechend wie auch beim Mitbewerb – der Umsatz stieg um 45% im Vergleich zum Vorjahresquartal – aber das reicht nicht aus, um die Verluste im traditionellen Geschäft auszugleichen. In der Hardware-Sparte ging beispielsweise der Umsatz um 39% auf $1,49 Milliarden zurück. Das schlägt sich dann auch beim Gewinn nieder: Der operative Gewinn sank um 14% auf $3,0 Milliarden. (19. Okt.) Mehr dazu in der IBM-Pressemitteilung.

 

Yahoo enttäuscht mal wieder: Umsatz und Gewinn sinken im Q3/2015. Der GAAP-Umsatz stieg zwar um 7% im Vergleich zum Vorjahresquartal auf $1,226 Milliarden, aber es stiegen gleichzeitig die Kosten zur Umsatzgenerierung von $54m im Vorjahresquartal auf jetzt $223m. Der Nettogewinn war mit $76m reichlich mager, kann aber nicht wirklich mit dem Quartalsgewinn im Vorjahresquartal verglichen werden: Das war ein einmaliger Sondereffekt aus dem Alibaba-Geschäft. (20. Okt.) Mehr dazu in der Yahoo-Pressemitteilung.

 

Amazon: AWS boomt im Q3/2015. AWS erzielte einen operativen Gewinn von $521m bei $2,08 Milliarden Umsatz. Der Gesamtumsatz im Q3 legte um 23% auf $25,4 Milliarden zu, und es gab wieder einen Nettogewinn von $79m gegenüber einem Nettoverlust von $437m im Vorjahresquartal. (22. Okt.) Mehr dazu in der Amazon-Pressemitteilung.

 

Microsoft im Q1/2016 deutlich besser als erwartet – vor allem dank Cloud. Microsoft wandelt sich erfolgreich zum Anbieter von Internet-basierten Diensten für Privatkunden und Industrie im mobilen Internet. Zwar sank der bereinigte Umsatz im Vergleich zum Vorjahresquartal um 7% auf $21,7 Milliarden, aber der Markt hatte noch weniger erwartet. Der bereinigte Nettogewinn sank auch nur leicht um 1% auf $5,3 Milliarden und übertraf deutlich die Erwartungen. Schuld an den Verlusten war zu einem guten Teil der starke Dollar. Wachstumsmotor bei Microsoft ist wie bei den Mitbewerbern die Cloud. Die Run-Rate betrug beeindruckende $8,2 Milliarden Dollar. (22. Okt.) Mehr dazu in der Microsoft-Pressemitteilung.

 

Google beeindruckt im Q3/2015. Der Umsatz stieg um 13% im Vergleich zum Vorjahresquartal auf $18,68 Milliarden und der Gewinn stieg um 45% auf $3,98 Milliarden. Die Zahlen beziehen sich ab diesem Quartal nicht mehr nur auf Google selbst, sondern gelten insgesamt für den Konzern Alphabet. Doch da die Umstrukturierungen noch nicht abgeschlossen sind, gibt es noch keine weiteren Aufschlüsselungen. Erfreulich für Google: Man macht inzwischen 10% des Umsatzes außerhalb des Werbegeschäfts. Haupteinnahmequelle ist da der Play Store und weitere Angebote mit zahlender Kundschaft. 78% des Werbeumsatzes werden auf Google-Seiten erzielt, und 22% über Partner-Webseiten (AdSense). (22. Okt.) Mehr dazu in der Alphabet-Pressemitteilung.

 

Qlik im Q3/2015 wächst nur noch einstellig. Um 20% wäre der Umsatz im Q3/2015 im Vergleich zum Vorjahresquartal währungsbereinigt gestiegen, real betrug der Anstieg dann nur noch 8% von $131,3m auf $141,2m. Der Lizenzumsatz stieg nur noch um 3% von $67,5m auf $69,8m, währungsbereinigt um 15%. Auch schrieb man wieder einen GAAP-Verlust aus dem operativen Betrieb von ($8,1)m (im Q3/2014 waren es ($8,6)m). (22. Okt.) Mehr dazu in der Qlik-Pressemitteilung.

 

Apple im Q4/2015 wieder mit Rekordergebnissen. Im Q4, das am 26. Sept. endete, betrug der Umsatz $51,1 Milliarden und der Gewinn $11,1 Milliarden. Apple hat dabei mehr iPhones und Macs verkauft als jemals in einem Q4 zuvor: 48 Millionen iPhones und 5,7 Millionen Macs. (27. Okt.) Mehr dazu in der Apple-Pressemitteilung.

 

Twitter enttäuscht im Q3/2015 – Aktie auf Talfahrt. Zwar stieg den Umsatz im Vergleich zum Vorjahresquartal um 58% auf $569m und lag über den Markterwartungen, aber die Zahl der User, die sich mindestens einmal im Monat bei Twitter einloggen, macht Sorgen: Sie legte im Vergleich Q2/Q3 nur um 1,6% auf rund 320 Millionen zu. Dazu kommt ein Quartalsverlust von $132m, der nur wenig besser aussah als im Vorjahresquartal mit $175m. Das zusammen reichte, um die Aktie auf Talfahrt zu schicken. Sie fiel nachbörslich zeitweise um fast 12%. (27. Okt.) Mehr dazu in der Twitter-Pressemitteilung.

 

Auch OpenText leidet unter dem starken Dollar. Im Q1/2016 ging der Umsatz im Vergleich zum Vorjahresquartal um 4,2% von $453,8m auf $434,5m zurück. Auf Basis konstanter Währung hätte es ein leichtes Wachstum von 3% gegeben. (28. Okt.) Mehr dazu in der OpenText-Pressemitteilung.

 

Software AG im Q3/2015: Umsatz gestiegen und Ergebnis deutlich verbessert. Der Umsatz des Konzerns stieg in der Berichtsperiode um 5%, die Lizenzumsätze um 7%. Angetrieben wurden das Wachstum durch die produktbezogenen Geschäftsbereiche: Adabas & Natural erhöhte sich um 9% und die Digital Business Platform um 7%. Das Ergebnis vor Zinsen und Steuern (EBIT) sprang im Q3 um 36% auf 66,8m Euro. (28. Okt.) Mehr dazu in der Software-AG-Pressemitteilung.

 

PSI steigert das Konzernergebnis nach neun Monaten um 92%. Der PSI-Konzern hat in den ersten neun Monaten des Jahres 2015 einen 7,4% höheren Umsatz von 136,6m Euro erzielt (30.09.2014: 127,2m Euro). Das Betriebsergebnis (EBIT) in den ersten neun Monaten wurde trotz anhaltend starker Investitionen in Softwaretechnologie um 66% auf 7,3m Euro gesteigert (30.09.2014: 4,4m Euro). Das Konzernergebnis verbesserte sich um 92% auf 3,8m Euro (30.09.2014: 1,98m Euro). Der Auftragseingang lag mit 149m Euro um 12% über dem Vorjahreswert (30.09.2014: 133m Euro), der Auftragsbestand am 30.09.2015 verbesserte sich gegenüber dem Vorjahreswert um 7% auf 128m Euro (30.09.2014: 120m Euro). (29. Okt.) Mehr dazu in der PSI-Pressemitteilung.

 

Facebook im Q3/2015 mit Umsatz- und Gewinnsteigerung – Aktie gewinnt mehr als 5%. Der Umsatz stieg im Vergleich zum Vorjahresquartal um 40,5% auf $4,5 Milliarden, der Gewinn um rund 11% auf $891m. Mobil ist und bleibt Wachstumstreiber. Täglich sollen 894 Millionen über mobile Geräte auf Facebook zugreifen! Das schlägt sich auch beim Anteil der mobilen Werbung nieder, der im Vergleich zum Vorjahresquartal von 66% auf 78% gestiegen ist. In Sachen mobiler Werbung dominiert Facebook und lässt den Mitbewerb deutlich hinter sich. Insgesamt betrug der Umsatz mit Werbung im Q3 $4,3 Milliarden. Auch die Nutzerzahlen steigen weiter: Im Vergleich zum Vorjahresquartal wuchsen die um 14%. Aktuell hat Facebook 1,55 Milliarden aktive Nutzer im Monat. (4. Nov.) Mehr dazu in der Facebook-Pressemitteilung.

 

Big Data wächst: Hortonworks entthront Salesforce: Der Gesamtumsatz (GAAP) stieg um 159% im Vergleich zum Vorjahresquartal auf $33,1m. Damit hat Hortonworks die $100m-Jahresumsatzgrenze im Rekordtempo erreicht (Q4/2014: $16,7m; Q1/2015: $22,8m; Q2/2015: $30,7m; plus Q3 macht zusammen $103,3m). Salesforce war das Startup, das diese Schallmauer als bisher schnellstes Unternehmen erreichte, nämlich in 5 Jahren. Hortonworks ist erst 4 Jahre alt, also neuer Rekordhalter (siehe dazu CMSWire). Das operative Geschäft ist allerdings noch nicht profitabel. Es gab einen operativen GAAP-Verlust von $44,4m im Vergleich zu $37,4m im Vorjahresquartal. (4. Nov.) Mehr dazu in der Hortonworks-Pressemitteilung.

 

Intershop mit Umsatzwachstum im Q3/2015, Aufwärtstrend fortgesetzt. Auf Konzernebene stieg im Q3 der Umsatz um 6% auf 11,7m Euro. Insgesamt erhöhten sich die Produktumsätze (Lizenzen und Wartung) in den ersten neun Monaten 2015 um 40% auf rund 13,0m Euro und die Lizenzerlöse stiegen deutlich um 88% auf 7,0m Euro. (4. Nov.) Mehr dazu in der Intershop-Pressemitteilung.

 

Selbst der starke Dollar kann Tableaus Wachstum im Q3/2015 nicht ausbremsen. Der Gesamtumsatz stieg im Vergleich zum Vorjahresquartal um 64% auf $170,8m, der Lizenzumsatz um 57% auf $109,5m. Der internationale Umsatz stieg sogar um 75% auf $42,2m. (5. Nov.) Mehr dazu in der Tableau-Pressemitteilung.

 

 
Trend
Special: Künstliche Intelligenz auf dem Vormarsch.

 

Künstliche Intelligenz (KI) ist da und optimiert Aufgaben im Geschäftsleben. Natürlich kennt inzwischen jeder IBMs Watson, den 2011 Sieger über den Menschen in Jeopardy. Aber Watson war nur ein Aufmerksamkeit erregender Anfang. Andrew Moore, Carnegie Mellon's Dean of Computer Science, berichtet, dass KI-Forscher KI-Systeme gebaut haben, die in verschiedenen Industriebereichen bereits im Einsatz stehen oder kurz davor sind. KI beschränkt sich also nicht nur auf das Gesundheitswesen. Zu diesem Durchbruch haben zum Teil auch die Big-Data-Methoden beigetragen. Ein Beispiel ist Natural Language Processing (NLP), die Technologie, die hinter Applikationen wie Siri und Cortana steht. NLP begann als spielerisches Streben. Man wollte ein System bauen, das versteht, wie Menschen Sprache nutzen, um Information zu vermitteln. Den Anwendungsfall digitale Assistenten hatte man auch schon im Hinterkopf. Die ersten Releases solcher Systeme hatten ein sehr lineares Verstehen der Bedeutung hinter Sätzen. Daher funktionierten sie nur dann recht gut, wenn man fakten-basierte Fragen stellte wie "Wer wurde Fußballweltmeister 2014?“ In den letzten beiden Jahren hat Big Data neue Fähigkeiten für NLP geöffnet. Die Maschinen können jetzt dank strukturierter Repositories Kontexte grammatikalisch bestimmen. Carnegie Mellon arbeitet mit IBM, um Watson im Gesundheitswesen weiter zu verankern. Das ist eine Riesengelegenheit, denn mehr als 300 Millionen Fragen rund um die Gesundheit werden täglich an die verschiedenen Suchmaschinen gestellt. Das Team arbeitet daran, mittels KI individuelle Satzkomponenten zu verstehen, um analytische Antworten zu komplexen Fragen zu geben. Wenn man beispielsweise eine Frage stellt wie „Ich bin vor 2 Wochen operiert worden und habe immer noch Rötungen. Ist das normal?“, dann helfen einem als Antwort viele Dokumente zu Operation und Rötung nicht wirklich weiter. Man will stattdessen eine relevante und zuverlässige Antwort. KI-Systeme können in einem ganz anderen Anwendungsfall auch viel besser computer-gesteuerte Sicherheitssysteme testen, beispielsweise Automobil-Software oder Kollisions-vermeidende Systeme in Flugzeugen. KI-Systeme gibt es schon seit langem, sagt Moore, aber in den letzten Jahren haben Unternehmen wie Google, Amazon und IBM massiv Geld in KI-Projekte gesteckt. Das fange an, sich jetzt auszuzahlen. Lesen Sie dazu auch den Beitrag bei FierceCIO.

 

Künstliche Intelligenz (KI) mal ganz konkret an einem Beispiel: Amelia, eine wohl am menschlichsten aussehende KI-Plattform. Die neue Version von Amelia, einer Plattform für künstliche Intelligenz, hat jetzt einen verbesserten Speicher, Kontext-bezogenes Verstehen, emotionales Antwortverhalten und der Avatar sieht jetzt auch sehr menschlich aus! Mit dem verbesserten Aussehen des Avatars und einer jetzt einprogrammierten physischen Emotion hofft der Hersteller IPSoft die Nutzer dieser Plattform noch besser engagieren zu können: Amelia soll in Unternehmen als persönliche virtuelle Assistentin eingesetzt werden. Amelias „Gedächtnis” umfasst jetzt sowohl einen episodischen und einen semantischen Speicher analog wie bei uns Menschen. Der episodische Speicher von Amelia erlaubt ein Erinnern an aufeinanderfolgender Ereignisse. Der semantische Speicher dient dem Aufzeichnen von Fakten, Konzepten und anderem Wissen. Zur besseren Nutzung dieses erweiterten Speichers hat Amelia nun ein verbessertes kontextuelles Verstehen. Konzepte und Ideen sind im menschlichen Hirn semantisch verbunden. Das bedeutet, dass beim Nachdenken das Gehirn gezielt solche semantischen Verbindungen absucht. Das unterscheidet sich von den in der Informatik eingesetzten Suchalgorithmen, die erst den gesamten Datenbestand durchsuchen müssen, um zu Antworten zu kommen. Amelia nutzt jetzt solche Fähigkeiten, was zu schnelleren und zuverlässigeren Antworten über komplexere Wissensbasen führt. Weiterhin kommt Amelia mit verbesserter emotionaler Reaktivität. Amelia kann sich an Kundeninteraktionen erinnern und Antworten an den jeweiligen Kunden anpassen und so personalisierte Dienste bieten. Mit einem Menschen verwechseln wird man Amelia aber noch nicht. IPSoft glaubt, dass das noch einige Jahre dauern dürfte. Wenn man diese Entwicklung weiter betreibe, dann könne aber Amelia in absehbarer Zeit im Turing-Test bestehen, also „ihr“ Antwortverhalten von dem eines Menschen nicht unterschieden werden. Die Entwickler bei IPSoft sind davon überzeugt, dass wir recht kurz vor der Schelle stehen, an der maschinelle Intelligenz der menschlichen Intelligenz nicht mehr nachsteht. Mehr dazu in der IPSoft-Pressemitteilung.

 

Maschinelles Lernen: Anwendung von Echtzeit-Big-Data-Methoden auf die IT. In diesem Gastbeitrag erläutert Steve Burton, Leiter Produkt-Marketing bei Moogsoft, die Rolle von maschinellem Lernen im IT-Ereignis-Management. Das lesen Sie bei Inside Big Data.

 

Google ist neuer Gesellschafter des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). Die Google Deutschland GmbH hat einen Gesellschaftsanteil des DFKI erworben und wird dessen 17. Industriegesellschafter. Das DFKI sei damit das bislang einzige Forschungsunternehmen in Europa, an dem sich Google durch eine Kapitaleinlage und einen Sitz im Aufsichtsrat als Industriegesellschafter beteiligt. Dem DFKI bietet sich somit die Möglichkeit, den Transfer von Innovationen aus der Forschung in Wirtschaft und Gesellschaft zu intensivieren. Mehr dazu bei IT-Production.

 

Google setzt auch bei seiner Suchmaschine auf künstliche Intelligenz. Bei Bloomberg gibt es dazu ein kurzes Video-Interview.

 

Automatisieren von Big-Data-Analysen. Hier lassen sich Verfahren der künstlichen Intelligenz sehr erfolgreich einsetzen. In einem Test hat beispielsweise ein solches System sich besser verhalten als 615 von 906 Teams bestehend aus Menschen. Mehr dazu bei MIT-News.

 

Die DNA ist nichts anderes als eine viele Milliarden alte Software. Die Natur erfand Software bereits Milliarden von Jahren früher als wir Menschen. “The origin of life is really the origin of software,” meint Gregory Chaitin. Leben erfordert genau das, was Software tut: Es ist im Grunde genommen algorithmisch. Mehr dazu bei Big Think.

 

Künstliche Intelligenz: In der Zukunft angekommen. Einen (etwas oberflächlichen) Überblick, aber auch einige Zahlen und Fakten (so was braucht man immer) finden Sie in diesem Beitrag bei CMSWire.

 

Wie können wir die Risiken von künstlicher Intelligenz meistern? “The vision of talking to your computer like in Star Trek and it fully understanding and executing those commands are about to become reality in the next 5 years.” (Forbes). Wenn das alles jetzt möglich wird, dann muss man spätestens jetzt anfangen, sich zu überlegen, wie man künstliche Intelligenz kontrollieren kann. Vor allem muss man sich auch über die Ethik zum Einsatz von künstlicher Intelligenz klar werden und den Gesetzgeber auffordern, Regeln und Richtlinien zum Umgang mit künstlicher Intelligenz aufzustellen. Mit Datenschutz allein ist es hier nicht getan! Lesen Sie dazu diesen Beitrag in der Time.
 

 
Kurzmeldungen
Neues zu Big Data, Analytik, Information Management, zur Cloud und Digitalisierung sowie der IT.

 

Big Data und ROI: eine ganz schön harte Nuss für CIOs. CIOs sollten traditionelle Kostenrechtfertigungen überdenken, wenn Sie in Big-Data-Projekte investieren. Mehr dazu bei Information Management.

 

Prädiktive Analytik, so heißt die Zukunft von Big Data. Das wundert hier ja keinen mehr, aber jetzt fängt dieser Gedanke an, sich auch im Markt durchzusetzen. Lesen Sie dazu den Beitrag bei V3.CO.UK.

 

Wie Big Data Supply Chain Management revolutioniert. Mit Big Data erreiche man eine bessere Genauigkeit, Übersichtlichkeit und neuen Einsichten. Das führe zu mehr kontextueller Intelligence quer über die Supply Chain. Mehr dazu bei Business2Community.
 

Wo ist das Geld, das in Daten stecken soll? Hier nun sowohl der Teil IV der Artikelserie von Anne Buff bei Information Management  als auch der letzte Teil V.

 

Zum Thema Data Lakes. Während Konzepte wie Data Warehousing und Big Data ihren Platz und ihre Position in den Unternehmen gefunden haben, gibt es zum Thema Data Lake immer noch viel Unverständnis und Verwirrung. Was fehlt sind klare Definitionen und Anwendungsfälle. Einige Antworten finden Sie in diesem Beitrag bei Data Informed.

 

Ist es aus mit Ihnen und Ihrer relationalen Datenbank? Relationale Datenbanken haben ihren Job (gut) getan, und es gibt immer noch hinreichend viele Aufgaben, bei denen sie die beste Lösung darstellen. Aber heute gilt es aufzupassen, dass man relationale Datenbanken nicht im falschen Kontext einsetzt, wenn man Geld- und Zeitverschwendung vermeiden will. Mehr dazu bei Data Informed

 

Wie semantische Graph-Techniken Datenintegration erleichtern. Eine der wichtigsten Aufgaben im Big-Data-Management ist die Integration von strukturierten, semi-strukturierten und nicht-strukturierten Daten. Dabei hängen aber der Grad der Schwierigkeit und Komplexität einer solchen Datenintegration von der Datenbanktechnologie ab, die man einsetzt. Da unterscheiden sich relationale, NoSQL, einfache Graph, oder semantische Graph-Datenbanken. Mehr dazu bei Information Management.

 

Die Cloud ändert die IT-Kultur und erfordert neue Technologie-Fähigkeiten. Wer in die Cloud geht muss weitaus mehr ändern als die IT-Systeme und Dienstleistungen. Mehr dazu in einem Video und Artikel bei Computerworld.

 

CIOs und CMOs müssen sich sputen, um den Wandel erfolgreich zu gestalten. Forrester meint mit Blick auf 2016, dass Unternehmen, die eine “kunden-besessene” Strategie fahren, die Marktsieger sein werden. Deshalb müssen die CMOs in den Unternehmen eine führende Rolle übernehmen und mit den CIOs gemeinsam Customer Experience Management vorantreiben. Dabei gilt es, in der gewachsenen Landschaft unterschiedlicher Technologien für Call Center, Marketing-Teams und Produkt-Verantwortlichen aufzuräumen und endlich eine wirkliche 360°-Kundensicht zu schaffen. Mehr dazu bei Information Management.

 

Die digitale Transformation allein wird keine Wettbewerbsvorteile bringen. “Only 5 percent of organizations feel that digital gives them a point of differentiation over their competitors.” Das sagt eine Studie von Accenture, die im Oktober 2015 veröffentlicht wurde. Was aber bringt denn dann Wettbewerbsvorteile? Kundenorientierung (oder wie im Betrag oben genannt: Kunden-Besessenheit)! Mehr dazu bei CMSWire.

 

Das neue Unternehmensstrategie-Problem – zu viele Optionen. Früher, in der Schule von Michael Porter, da gab es nur drei Tugenden, um nachhaltige Wettbewerbsvorteile zu erlangen: Kostenführerschaft, Differenzierung und Fokus. Das Leitmotiv war „Economy of Scale“. Das gilt heute nicht mehr allein wie zahlreiche Beispiele zeigen. „Economy of Scope“ heißt die Alternative. Lesen Sie mehr dazu bei Gigaom Research.

 

Wie CIOs mittels ITaaS die IT neu erfinden können. ITaaS meint Strategien, die dem CIO helfen, um ihre IT-Organisation in einen im Unternehmen anerkannten Geschäftspartner zu transformieren. Mehr dazu bei CIO.
 

 
Und zum Schluss.
CIO-Horror.

 

Comic: CIO-Horrorgeschichten. Sie kennen die Alpträume von CIOs? Halloween ist zwar gerade vorbei, aber CIOs werden jede Nacht von solchen Phantasien geplagt. Die finden Sie bei InformationWeek.

 

 

Impressum

 

Sie haben Fragen und Anregungen? Dann schicken Sie uns eine Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!.

 

Sie wollen den Newsletter abonnieren? Hier geht es zur Anmeldung

 

Sie wollen den Newsletter abbestellen? Dann schicken Sie uns eine Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!.

 

Inhalt, Zusammenstellung, Anzeigen, Sponsorship: Dr. Wolfgang Martin
Wolfgang Martin Team
S.A.R.L. Martin
74000 Annecy – France
T: +33-4-50099244
Internet: www.wolfgang-martin-team.net

 

Weitere Informationen über den Absender dieses Newsletters finden Sie im Impressum.

 

Tous renseignements par e-mail à: Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!
Tous droits réservés. Alle Rechte vorbehalten. Copyright © 2015 S.A.R.L. Martin
Versand durch: HBI GmbH (PR-Agentur) www.HBI.de