close

Thema

AllgemeinCloudDevelopment, CodingSharePoint Online

SharePoint Online Experience: Development

Beitragsbild Schnecke mit Manager

SharePoint Online rühmt sich, eine tolle Lösung für viele Probleme zu haben. Angefangen von einer fix fertigen Infrastruktur, Entlastung durch Übernahme administrativer Tätigkeiten, laufende Updates und Support, agiles Vorgehen bei der Entwicklung, fließender Übergang von OnPrem zu Online, eine mächtige Community, OpenSource Solutions und schließlich eine tolle neue Oberfläche, Modern UI.

Wie aber sieht es damit im Detail aus?

mehr lesen
Automation, Workflow, Self ServiceHow-To, Tutorial, SzenarioHybrid

Termineinladungen mit Nintex Workflow versenden

beitragsbild-loesung-anleitung-punktgenau-beschreibung-zielorientiert

Im Zuge der Abbildung von Prozessen in SharePoint kommt es immer wieder vor dass man Einladungen zu Terminen versenden muss. Sei es weil ein Urlaub über einen Workflow genehmigt wurde, oder weil man sich zu einem Event angemeldet hat. Da fallen wohl jedem etliche Szenarien ein.

Solange man sich innerhalb einer Organisation bewegt kann man wenigstens vom gleichen Mailprogramm für alle Benutzer ausgehen (meistens Outlook) und dafür dann eine geeignete technische Lösung suchen. Im Idealfall kann direkt auf den Mailserver zugegriffen werden um den Termin dort anzulegen.

Wenn man jedoch mit externen Benutzern zu tun hat schaut die Welt ein wenig anders aus. Da wird es auch andere Mailprogramme geben die man zu berücksichtigen hat. Ein einfacher Schluss daraus ist eine Methode zu verwenden der standardisiert und weit verbreitet ist. Nämlich das iCalender (iCal) Format.

mehr lesen
Analytics, Auswertung, Statistik

Was ist Microsoft AI?

beirragsbild-loesung-tipp-erste-schritte-beratung-weg-1800×1200

Microsoft AI ist eine Sammlung von Services, Bibliotheken & Tools spezialisiert auf den Bereich der künstlichen Intelligenz. Die Plattform beinhaltet einfach zu verwendende, bereits vollständig konfigurierte Services sowie Tools mit denen komplexe, applikationsspezifische Modelle realisiert werden können. Microsoft AI kann in drei große Gruppen unterteilt werden:

Cognitive Services

In dieser Gruppe befinden sich vor allem Services, die die Mensch-Maschine-Kommunikation in verschiedenster Weise ermöglichen. Die Cognitive Services sind einfach zu verwenden und werden über REST Schnittstellen zur Verfügung gestellt. Die Integration kann meist mit sehr wenigen Codezeilen realisiert werden. Außerdem werden auch einige konfigurierbare Services angeboten. Ein Überblick über die verfügbaren Module ist in Abbildung „Verfügbare Module im Überblick“ zu sehen.

Abbildung: Verfügbare Module im Überblick

Azure Machine Learning

Eine Unterkategorie von AI ist das sogenannte Machine Learning. Die Azure Machine Learning Workbench bietet eine umfangreiche Umgebung mit einer Vielzahl an Tools zur Anwendung von gängigen Machine Learning Algorithmen. Außerdem verfügt das Programm über viele unterstützende Funktionen zur Vorbereitung der Daten sowie zum Veröffentlichen der erzeugten Modelle. Die Workbench kann auf dem lokalen Computer installiert werden und muss mit einer Azure Ressource verknüpft sein (siehe Abbildung „Azure Machine Learning“).

Abbildung: Azure Machine Learning

Cognitive Toolkit

Deep Learning wird mit Hilfe des Cognitive Toolkits ermöglicht. Verschiedene Arten von Neuronalen Netzwerken können erstellt, trainiert und getestet werden. Durch eine Vielzahl an Konfigurationsmöglichkeiten kann eine hohe Präzision bei Vorhersagen mittels Neuronalen Netzwerken erreicht werden.

Ausblick

In den kommenden Wochen folgen weitere Blogeinträge zum Thema Microsoft AI, in denen auf ausgewählte Themenbereiche vertiefend eingegangen wird. Unter anderem wird gezeigt, wie mit Hilfe künstlicher Intelligenz ein Bot programmiert werden kann.

mehr lesen
AzureCloudKünstliche Intelligenz

Machine Learning Studio von Microsoft

beitragsbild-source-code-scripting-coding-terminal

Wer aufmerksam das Microsoft Azure Portal beobachtet und regelmäßig besucht, hat vielleicht schon entdeckt, dass es eine Ressource „Machine Learning Studio workplaces“ gibt. Wie der Name schon andeutet, kann man damit Machine Learning Arbeitsbereiche erstellen und verwenden. Nun wird der Eine oder Andere der Meinung sein, dass das sehr kompliziert klingt und möglicherweise außer Aufwand keinen Nutzen hat. Dem möchte ich hier doch deutlich widersprechen :).

mehr lesen
AllgemeinAutomation, Workflow, Self ServiceAzureCloudHybridInterviewOffice 365SharePoint 2013SharePoint 2016

Microsoft Azure und dox42

beirragsbild-loesung-tipp-erste-schritte-beratung-weg-1800×1200

Wie vielleicht viele wissen, fand am 11.11.2017 der SharePoint Saturday in Wien statt. Leider konnten wir an diesem Spektakel nicht teilnehmen. Johannes Linder von dox42, einer unserer Partner, war am SPS Vienna als Speaker vertreten und hatte somit die Möglichkeit zum Austausch mit einigen SharePoint Experten.

Im Rahmen seines Vortrags konnte er neben technischen Neuerungen rund um Office 365 auch die neue Version von dox42 vorstellen. Für alle die es ebenfalls nicht geschafft haben beim SharePoint Saturday in Wien vorbeizuschauen habe ich Johannes befragt wie es denn so war und natürlich auch welche neuen Features wir nun mit der neuen dox42 Version nutzen können.

mehr lesen
Analytics, Auswertung, Statistik

Microsoft SQL Server Master Data Services (MDM)

Beitragsbild-Anleitung-Erste-Schritte-Ziel-Weg-Erfolg

Einleitung

Master Data Services – kurz MDM – ist ein Bestandteil der SQL Server Produktpalette seit SQL Server 2008 R2 und hat sich in den letzten Jahren bis 2016 nur marginal weiterentwickelt. Dies lag vorwiegend daran, dass Microsoft den Schwerpunkt auf den Business Intelligence Stack gelegt hatte.

Mit dem Release von SQL Server 2017 wurde MDM grundlegend erneuert: HTML5 und neue Technologien tragen zu Stabilität und Akzeptanz bei.

Am Namen und der damit verbundenen, hohen Erwartungshaltung wurde (leider) nichts geändert: was dem Thema an sich zwar nicht schadet, aber für Erklärungsbedarf sorgt.

Was ist MDM und was sind die Herausforderungen, die damit gelöst werden sollen?

In der reinen Theorie ist MDM eine Grundsatzentscheidung dafür, seine Unternehmensdaten zentral zu verwalten, zu vereinheitlichen und dadurch die Grundlage für belastbare Aussagen/Auswertungen zu schaffen.

Auch 2017 sind Unternehmen noch immer damit konfrontiert, Daten aus einer Vielzahl von Systemen zu verwalten. Ist-Daten aus System A wollen in einer Auswertung mit Plan-Daten aus System B angereichert werden. Eine Verknüpfung ist meist aufwändig bzw. gar nicht möglich, da die Datensätze zwar logisch ident sind, aber aufgrund der Schreibweise trotzdem unterschiedlich sind (z.B. Halle8 <> Halle 08).

MDM Systemlösungen

Zur Umsetzung von MDM gibt es bereits viele Produkte: SQL Server, MUM, inubit, SAP MDM, Biztalk, etc. Viele davon bieten einen vordefinierten Bausatz an Funktionen, um sich dem Thema zu nähern.

Eine Standardlösung, ohne jegliche Zusatzprogrammierung, ist aber weder mit Produkt A noch mit Produkt B realistisch – auch wenn das gerne postuliert wird.

Die hohe Kunst im Bändigen von MDM besteht darin, die Verflechtung von organisatorischen und IT-technischen Aktivitäten a) bestmöglich zu koordinieren und b) ein Tool zu verwenden, das die Abläufe und Datenflüsse bestmöglich visualisiert und beim Bearbeiten von Dateninkonsistenzen unterstützt.

Eine optimale MDM-Lösung ist ein Zusammenspiel aus Systemkomponenten (IT) und organisatorischen Verantwortlichkeiten (Fachbereich), bei dem nicht das IT-Tool im Vordergrund steht. Vielmehr ist das Bewusstsein für ein integratives, workflowbasiertes „Doing“ zu beachten.

MDM Projektansatz bei PASO Solutions

Ein Ansatz, den wir bei PASO Solutions in MDM-Projekten bereits erfolgreich umsetzen konnten, wird in folgender Architekturskizze beleuchtet.

  1. Vorsysteme tauschen Daten über eine sog. Datendrehscheibe – kurz DDS – aus, welche in der Regel als relationale Datenbank realisiert wird. Dadurch ist gewährleistet, dass die Daten mittels SQL-basierten Tools abgelegt und analysiert werden können. Auch dateibasierte Schnittstellen (z.B. XML) können mittels EAI-Tools (vgl. inubit, BizTalk) in die DDS überführt werden.
  2. In der DDS gibt es ein mehrstufiges System zur Datenqualitätsabsicherung. Dazu werden die Rohdaten zuerst in einem sog. Staging-Bereich gesammelt. Neuartige, noch nicht validierte Datensätze werden vom Staging-Bereich in den MDM-Bereich transferiert. Sie haben somit den Status DATEN_UNGEPRÜFT.
  3. Im MDM-Bereich erfolgt die klassische Validierung, insb. auf Dubletten und Inkonsistenzen. Dazu werden Standardalgorithmen wie bspw. Fuzzy-Logic und sog. Mapping-Tabellen herangezogen, um Datensätze zu identifizieren und in unterschiedliche Problemklassen einzuteilen. Der neue Status ist nun DATEN_KLASSIFIZIERT.
  4. Mittels automatisierter Berichte (vgl. SSRS-Abonnements) ist es möglich, Dateninkonsistenzen periodische an sog. Clearing-Stellen zu berichten. Solche Prüfberichte können mittels HTML-Links in webbasierte MDM-Systeme verbinden, um den Korrektur-Ablauf für die Benutzer bestmöglich zu gewährleisten.
  5. Manuell nachbearbeitete Datensätze werden vom MDM zurück an die DDS geliefert und überführen die Datensätze in den nächsten Datenqualitätsstatus DATEN_VALIDIERT.
  6. Über eine konfigurierbare Signal-Funktion werden von der DDS die validierten Daten an andere Systeme weitergeleitet (Trigger-basiert).
Architekturskizze

Vorteile durch MDM mittels Microsoft SQL Server Stack

Microsoft SQL Server bietet neben der klassischen relationalen Datenbank viele weitere Services out-of-the-box. Neben den bekannten Themen wie Analysis Services (SSAS), Reporting Services (SSRS) und Integration Service (SSIS) drängen nun verstärkt die neuen, exotischen Services in den Vordergrund:

Machine-learning Services (vormals R-Services) und Master-Data-Services bilden im Verbund mit den tradierten Services ein optimales Toolset, um den MDM Projektansatz umsetzen zu können.

Mittels MDM können im Clearing-Center durch Machine-learning-Services vorvalidierte Datensätze nachbearbeitet werden, um dann mittels Integration Services zwischen den Datenqualitätsstufen transferiert zu werden.

Alles aus einer Hand, mit einem Toolset und zu einem lukrativen Preis, insbesondere dann, wenn Microsoft-SQL-Server-Lizenzen bereits vorhanden sind, nahezu kostenfrei.

Conclusio

MDM Services von Microsoft ist eine Komponente, um MDM erfolgreich umzusetzen. Aber erst das Zusammenspiel des kompletten SQL Server Stacks ermöglicht eine umfassende und integrative Behandlung des Themas. Organisatorische Rahmenbedingungen (Clearing-Stelle) und Workflow-basierte Abarbeitung sind das A und O, um die Komplexität zu beherrschen.

mehr lesen
AllgemeinCloudCollaboration, ProduktivitätHybridInterviewOn-PremisesSharePoint 2016Success Story, Kundenreferenz

Über die Einführung einer globalen Informationsstruktur mit SharePoint bei der Greiner Gruppe

standort_GHO_kremsmuenster_austria_für Blog

Wer wie die Greiner Gruppe zugleich in der Verpackungs-, Möbel-, Automobilindustrie, im Bereich Medizintechnik und Life Science sowie in der Profilextrusion tätig ist, braucht eine clevere IT-Strategie, um den Spagat zwischen Autonomie und Zentralisierung zu schaffen. Markus Wagner, Head of Blue-IT, sorgt dafür.

Die Greiner Gruppe ist ein klassischer »Hidden Champion«: Ein Unternehmen, das global sehr erfolgreich agiert, aber in der Heimat der breiten Öffentlichkeit weitgehend unbekannt ist. Denn was im Jahr 1868 (Österreich: 1899) mit einem kleinen Greißler in Nürtingen (Deutschland) begann, hat sich über die Jahrzehnte zu einem Unternehmen mit 134 Standorten in 30 Ländern entwickelt. Heute begleiten Greiner-Produkte den Alltag der Menschen auf der ganzen Welt, ob in Form der Schaumstoffmatratze im Bett, dem Joghurtbecher am Frühstückstisch oder dem bequemen Sitz in Zug, Straßenbahn, Auto oder Flugzeug. Auch das Blutentnahmeröhrchen beim Arzt oder die Trinkflasche beim Joggen kommen aus der Greiner Gruppe, die bis heute ein Familienunternehmen geblieben ist. Die unterschiedlichen Produktgruppen sind in vier operative Sparten organisiert: Greiner Packaging International, Greiner Bio-One International, Greiner Foam International sowie Greiner Extrusion Group. »Bis 2013 waren die Sparten im IT-Umfeld völlig autark unterwegs«, sagt Markus Wagner, Leiter der Holding-IT, bei Greiner »Blue-IT« genannt, im Gespräch mit der COMPUTERWELT. »Mit dem Onboarden des heutigen CFO, Hannes Moser, hat sich das grundlegend geändert.«  Eines der Ziele des Finanzvorstandes war, eine spartenübergreifende IT-Strategie zu entwickeln.

mehr lesen
AllgemeinInterviewKünstliche Intelligenz

Interview – „Reduktion als Voraussetzung“

beitragsbild-einzigartig-hevorstechend-hero-star-loesung

Der Weg zum digitalen Arbeitsplatz kann ein steiniger sein, meint Nahed Hatahet, Geschäftsführer von HATAHET productivity solutions. Die Gründe sind unter anderem die durch die Industrie verursachte Komplexität und der aktuelle Beratermarkt.

Die COMPUTERWELT interviewte Nahed Hatahet zu diesem Thema. Lesen Sie hier das komplette Interview:

COMPUTERWELT: Was verstehen Sie unter dem Schlagwort digitaler Arbeitsplatz?
Nahed Hatahet: Der digitale Arbeitsplatz liefert mir auf Basis meiner Position im Unternehmen genau jene Informationen, die ich brauche, um meinen Arbeitsalltag zu meistern. Egal wo, egal wann. Was nicht benötigt wird, sollte reduziert werden, ein Aspekt, auf den meistens vergessen wird. Der Arbeitsplatz der Zukunft bietet zudem ein selbsterklärendes User Interface, damit ich intuitiv, ohne Schulungen arbeiten kann.

mehr lesen
Analytics, Auswertung, Statistik

SAP HANA und Microsoft BI: a true love-story?

beitragsbild-frage-wie-digital-transformation-1800×1200

Mit der neuen SAP HANA In Memory Technologie ist nun auch ein einfacher Zugriff auf SAP-Daten möglich.

Dazu gibt es im Microsoft BI Umfeld interessante Möglichkeiten, um an wertvolle ERP-Informationen zu gelangen

1. Zugriff mittels PowerBI Desktop

In der Self-Service-BI Suite „PowerBI Desktop“ ist ein Zugang mit dem neuen SAP HANA Connector möglich.

Zuerst ist es aber erforderlich, die SAP HANA ODBC Treiber für Windows zu installieren. Diese können unter https://support.sap.com/en/my-support/software-downloads.html direkt von SAP bezogen werden. Hier ist eine S-ID Voraussetzung, die man vom unternehmensinternen SAP-Admin erhalten kann.

Sind die ODBC-Treiber installiert, kann mit wenigen Klicks eine Verbindung zum HANA Server aufgebaut werden. Single-Sign-On und Berechtigung im SAP sind hier Voraussetzung.

Ist die Berechtigungshürde gemeistert, kann auf die entsprechenden Entitäten im HANA Datenbankmodell zugegriffen werden. Eine detaillierte Anleitung findet sich unter dem BI Channel von PowerBI https://www.youtube.com/watch?v=Zpbh6UE3pSE

2. Zugriff über SAP-PO und ETL

Ein Zugriff auf SAP Daten funktioniert am besten über die Schiene SAP PO (Process Orchestration) bzw. dem Vorgänger-System PI (Process Integration: https://de.wikipedia.org/wiki/SAP_Process_Integration ).

Dabei werden die SAP-Daten mittels PO auf eine unabhängig Datendrehscheibe (DDS) transferiert. PO kümmert sich nur um die erste Meile (von SAP zur DDS) und um die letzte Meile (von DDS nach SAP). SAP PO kann dabei auf BAPI, RFC sowie neue HANA Methoden zugreifen.

Die Datenextrakte werden mittels SQL-Statements auf Basis von JDBC direkt in eine SQL-basierte DDS geschrieben. Bspw. können mit einem SAP-Report alle FI-Belege eines Geschäftsjahres extrahiert werden. Diese Daten greift die PO auf, generiert ein SQL-Insert-Statement, welches dann auf die DDS abgesetzt wird. Sobald der Extraktionsvorgang fertig ist, ruft die PO eine Stored-Procedure auf der DDS auf, welche die Fertigmeldung absetzt und Folgeprozesse anstößt (bspw. den Weitertransport von der DDS in das DWH).

Hinweis: die PO/PI ist asynchron, d.h. man muss einen „Wait-On-PO“-Job anstoßen, der solange wartet, bis alle Daten aus der PO in die DDS übertragen wurden. Das ist zwar nicht ganz schön, funktioniert aber insofern charmant, weil die PO vor dem Übertrag nach DDS weiß, wie viele Datensätze ankommen sollen. Der WaitOnPO-Job wartet dann solange, bis in der DDS diese Anzahl an Datensätzen angekommen ist.

Alle anderen Schritte der klassischen ETL-Strecke – also Transformation/Harmonisierung und Datenkonvertierungen sollen in dafür spezialisierten EAI-Tools gemacht werden (inubit, SSIS, etc.).

Aus heutiger Sicht ist die PO leider zu schwerfällig und benutzerunfreundlich.

 

mehr lesen
Analytics, Auswertung, StatistikOffice 365On-Premises

Power BI Report Server: Was steckt wirklich dahinter?

beitragsbild-regen-wolken-regenschirm-online-arbeiten

Mit Juni und später mit August 2017 stellte Microsoft seine Antwort auf die Konkurrenz durch Qlikview und Tableau vor: Lokale Berichterstellung mit Power BI-Berichtsserver (https://powerbi.microsoft.com/de-de/report-server/)

Versprochen wird eine Verknüpfung der neuen Self-Services-Features, die seit 2016 durch Power BI Desktop bekannt sind, kombiniert mit den mächtigen Standard-Reporting-Funktionen der Reporting-Services aus dem SQL Server Stack. Damit können moderne, interaktive Berichte on-premise den unternehmensinternen Benutzern zur Verfügung gestellt werden.

mehr lesen
1 2 3 17
Page 1 of 17