close

Analytics, Auswertung, Statistik

AllgemeinAnalytics, Auswertung, StatistikThema

RDLC Reports in Visual Studio 2017

beitragsbild-cultural-change-tranformation-devices-generationen-1800×1200

Einleitung

Mit Visual Studio 2017 gibt es viele neue Features, die uns als SW-Entwickler das Leben um ein Vielfaches einfacher gestalten.

Leider wurde die Verwendung von lokalen Reports – sog. RDLC Reports – sehr kompliziert gestaltet.

Damit man trotzdem auch mit VS2017 die gewohnten, sehr guten Featuren von RDLC nutzen kann, folgende Anleitung mit Links auf die offiziellen Microsoft Seiten.

Vorgehensweise

Für die Verwendung von RDLC Reports in Visual Studio 2017 in ASP.NET-Projekten gehen Sie wie folgt vor (eine ähnliche Vorgehensweise gilt auch für die Verwendung von RDLC Reports in Windows-Forms-Projekten):

  1. Schließen Sie alle gerade geöffneten Visual Studio-Fenster
  2. Installieren Sie die Visual Studio-Extension „Microsoft Rdlc Report Designer for Visual Studio“:

    Download-Link:
    https://marketplace.visualstudio.com/items?itemName=ProBITools.MicrosoftRdlcReportDesignerforVisualStudio-18001
  3. Installieren Sie die Visual Studio-Extension “Microsoft Reports for Visual Studio”:

    Download-Link:
    https://marketplace.visualstudio.com/items?itemName=ProBITools.MicrosoftReportProjectsforVisualStudio

    Anmerkung:
    Falls die Installation der heruntergeladenen vsix-Dateien (Microsoft.RdlcDesigner.vsix und Microsoft.DataTools.ReportingServices.vsix) nicht funktioniert, können die Extensions auch direkt in Visual Studio über Tools > Extensions and Updates installiert werden:
  4. Starten Sie Visual Studio und erstellen Sie eine ASP.NET Web Application:


    Alternativ dazu können Sie an einem bestehenden Projekt vom Typ ASP.NET Web Application weiterarbeiten.
  5. Fügen Sie das NuGet-Package „Microsoft.ReportingServices.ReportViewerControl.WebForms“ hinzu (aktuellste Version zum Zeitpunkt der Erstellung des Blogeintrags: Version 140.1000.523 vom 6. November 2017):




    Im Anschluss an die Installation des NuGet-Packages öffnet sich die Microsoft-Informationsseite “Get started with RVC – Next steps”:
    http://htmlpreview.github.io/?https://github.com/Microsoft/Reporting-Services/blob/master/Docs_14_0/Get-Started-With-RVC.html
  6. Erstellen Sie einen neuen Report:
    • Im Dialog “Add New Item” (Projekt > Add > New Item…) sehen Sie nun unter Visual C# die beiden Einträge “Report” und “Report Wizard”. Wählen Sie “Report” und drücken Sie den Add-Button:
    • Bestätigen Sie den Dialog, der nach dem Hinzufügen erscheint:

      Hinweis: Jede weitere Report-Datei können Sie nun über das Projektmenü Add > Report hinzufügen:
  7. Befüllen Sie den Report:
    • Öffnen Sie die Toolbox und fügen Sie die gewünschten Report Items hinzu, z.B. ein Table-Objekt:
    • Nach dem Hinzufügen müssen Sie das DataSet konfigurieren und dafür zuerst eine Datenverbindung zu einer Datenbank hinzufügen sowie die gewünschten Datenbank-Objekte auswählen:



      Wählen Sie die gewünschten Datenbank-Objekte aus:

      Bestätigen Sie den finalen Dialog mit OK:
    • Wechseln Sie von der Toolbox zum Fenster “Report Data” und fügen Sie die gewünschten Reportdaten zum Report hinzu (Beispiel: befüllen Sie die Tabelle mittels Drag&Drop mit den Daten aus dem Bereich “Report Data”):
  8. Erstellen Sie eine neue WebForm und fügen Sie den erstellten Report zum Formular hinzu (Project > Add > WebForm):
    • Wechseln Sie auf die Designansicht
    • Fügen Sie aus der Toolbox den ScriptManager hinzu (Toolbox > AJAX Extensions > ScriptManager):
    • Fügen Sie aus der Toolbox den ReportViewer hinzu und ändern Sie ggf. seine Größe:

      Falls dieser nicht vorhanden ist, gehen sie wie folgt vor:

      1. Toolbox > General > Choose Items…
      2. Browse: [Solution-Ordner]\packages\Microsoft.ReportingServices.ReportViewerControl.WebForms.140.1000.523\lib\net40\Microsoft.ReportViewer.WebForms.dll auswählen:
    • Im ReportViewer unter „Choose Report“ den angelegten Report (*.rdlc-Datei) auswählen:
    • Testen Sie die erstellte WebForm und den hinzugefügten Report mittels IIS Express durch Auswahl des gewünschten Browsers und Drücken des Play-Buttons:

mehr lesen
AllgemeinAnalytics, Auswertung, Statistik

Table-Switching bei High-Availability Staging/Reporting Lösungen

Beitragsbild Superhero fly

In manchen Szenarien ist eine klassische ETL-Lösung mit mehreren Staging/Harmonisierungs-Ebenen nicht realisierbar.

Häufig ist der Grund dafür der Wunsch nach sehr kurzen Latenzzeiten: Damit ist jene Verzögerungszeit gemeint, um Daten vom Vorsystem ins analytische Reporting zu transferieren.

Bei einem Full-Load werden aber die Daten vorher komplett aus der Zieltabelle gelöscht, um diese danach mit den neuesten Daten aus dem Vorsystem erneut zu befüllen.

Die Latenzzeit zwischen Löschen und fertiger Befüllung ist für das Reporting leider problematisch, da keine Daten verfügbar sind.

Um diese Anforderung so gut wie möglich zu bedienen, kommt die „Table-Switching“-ETL-Methode zum Einsatz.

Die Eckpunkte der Lösung:

  • Es gibt für jede Reporting-Tabelle zwei Tabellen:
    • Die originale Tabelle (data.Table), auf die das Reporting abzielt
    • Die Input-Layer-Tabelle (data.Table_in), in welche die Daten transferiert werden
  • Der Full-Load aus dem Vorsystem erfolgt immer in die Input-Layer-Tabelle
  • Wenn alle Input-Layer-Tabellen befüllt sind, dann werden diese 3-stufig auf die originale Tabelle mit dem T-SQL Statement „sp_rename“ umbenannt
    • Zuerst die Input-Layer-Tabelle (data.Table_in) in eine temporäre Tabelle (data.Table_tmp)
    • Dann die originale Tabelle (data.Table) zu (data.Table_in)
    • Dann die temporäre Tabelle wieder zur originalen Tabelle
  • Das Umbenennen geht innerhalb von Millisekunden, wodurch sichergestellt ist, dass nahezu immer Daten für das Reporting vorhanden sind
  • Um das Befüllen noch schneller zu gestalten, können auch Indices behandelt werden
    • Vor dem Laden in die Input-Tabellen werden dort die Indices deaktiviert (alter index idx on data.table disabled)
    • Wenn alle Umbenennungen fertig sind, werden die Indices auf den originalen Tabellen wieder reaktiviert (alter index idx on data.table rebuild)
mehr lesen
Analytics, Auswertung, Statistik

Was ist Microsoft AI?

beirragsbild-loesung-tipp-erste-schritte-beratung-weg-1800×1200

Microsoft AI ist eine Sammlung von Services, Bibliotheken & Tools spezialisiert auf den Bereich der künstlichen Intelligenz. Die Plattform beinhaltet einfach zu verwendende, bereits vollständig konfigurierte Services sowie Tools mit denen komplexe, applikationsspezifische Modelle realisiert werden können. Microsoft AI kann in drei große Gruppen unterteilt werden:

Cognitive Services

In dieser Gruppe befinden sich vor allem Services, die die Mensch-Maschine-Kommunikation in verschiedenster Weise ermöglichen. Die Cognitive Services sind einfach zu verwenden und werden über REST Schnittstellen zur Verfügung gestellt. Die Integration kann meist mit sehr wenigen Codezeilen realisiert werden. Außerdem werden auch einige konfigurierbare Services angeboten. Ein Überblick über die verfügbaren Module ist in Abbildung „Verfügbare Module im Überblick“ zu sehen.

Abbildung: Verfügbare Module im Überblick

Azure Machine Learning

Eine Unterkategorie von AI ist das sogenannte Machine Learning. Die Azure Machine Learning Workbench bietet eine umfangreiche Umgebung mit einer Vielzahl an Tools zur Anwendung von gängigen Machine Learning Algorithmen. Außerdem verfügt das Programm über viele unterstützende Funktionen zur Vorbereitung der Daten sowie zum Veröffentlichen der erzeugten Modelle. Die Workbench kann auf dem lokalen Computer installiert werden und muss mit einer Azure Ressource verknüpft sein (siehe Abbildung „Azure Machine Learning“).

Abbildung: Azure Machine Learning

Cognitive Toolkit

Deep Learning wird mit Hilfe des Cognitive Toolkits ermöglicht. Verschiedene Arten von Neuronalen Netzwerken können erstellt, trainiert und getestet werden. Durch eine Vielzahl an Konfigurationsmöglichkeiten kann eine hohe Präzision bei Vorhersagen mittels Neuronalen Netzwerken erreicht werden.

Ausblick

In den kommenden Wochen folgen weitere Blogeinträge zum Thema Microsoft AI, in denen auf ausgewählte Themenbereiche vertiefend eingegangen wird. Unter anderem wird gezeigt, wie mit Hilfe künstlicher Intelligenz ein Bot programmiert werden kann.

mehr lesen
Analytics, Auswertung, Statistik

Microsoft SQL Server Master Data Services (MDM)

Beitragsbild-Anleitung-Erste-Schritte-Ziel-Weg-Erfolg

Einleitung

Master Data Services – kurz MDM – ist ein Bestandteil der SQL Server Produktpalette seit SQL Server 2008 R2 und hat sich in den letzten Jahren bis 2016 nur marginal weiterentwickelt. Dies lag vorwiegend daran, dass Microsoft den Schwerpunkt auf den Business Intelligence Stack gelegt hatte.

Mit dem Release von SQL Server 2017 wurde MDM grundlegend erneuert: HTML5 und neue Technologien tragen zu Stabilität und Akzeptanz bei.

Am Namen und der damit verbundenen, hohen Erwartungshaltung wurde (leider) nichts geändert: was dem Thema an sich zwar nicht schadet, aber für Erklärungsbedarf sorgt.

Was ist MDM und was sind die Herausforderungen, die damit gelöst werden sollen?

In der reinen Theorie ist MDM eine Grundsatzentscheidung dafür, seine Unternehmensdaten zentral zu verwalten, zu vereinheitlichen und dadurch die Grundlage für belastbare Aussagen/Auswertungen zu schaffen.

Auch 2017 sind Unternehmen noch immer damit konfrontiert, Daten aus einer Vielzahl von Systemen zu verwalten. Ist-Daten aus System A wollen in einer Auswertung mit Plan-Daten aus System B angereichert werden. Eine Verknüpfung ist meist aufwändig bzw. gar nicht möglich, da die Datensätze zwar logisch ident sind, aber aufgrund der Schreibweise trotzdem unterschiedlich sind (z.B. Halle8 <> Halle 08).

MDM Systemlösungen

Zur Umsetzung von MDM gibt es bereits viele Produkte: SQL Server, MUM, inubit, SAP MDM, Biztalk, etc. Viele davon bieten einen vordefinierten Bausatz an Funktionen, um sich dem Thema zu nähern.

Eine Standardlösung, ohne jegliche Zusatzprogrammierung, ist aber weder mit Produkt A noch mit Produkt B realistisch – auch wenn das gerne postuliert wird.

Die hohe Kunst im Bändigen von MDM besteht darin, die Verflechtung von organisatorischen und IT-technischen Aktivitäten a) bestmöglich zu koordinieren und b) ein Tool zu verwenden, das die Abläufe und Datenflüsse bestmöglich visualisiert und beim Bearbeiten von Dateninkonsistenzen unterstützt.

Eine optimale MDM-Lösung ist ein Zusammenspiel aus Systemkomponenten (IT) und organisatorischen Verantwortlichkeiten (Fachbereich), bei dem nicht das IT-Tool im Vordergrund steht. Vielmehr ist das Bewusstsein für ein integratives, workflowbasiertes „Doing“ zu beachten.

MDM Projektansatz bei PASO Solutions

Ein Ansatz, den wir bei PASO Solutions in MDM-Projekten bereits erfolgreich umsetzen konnten, wird in folgender Architekturskizze beleuchtet.

  1. Vorsysteme tauschen Daten über eine sog. Datendrehscheibe – kurz DDS – aus, welche in der Regel als relationale Datenbank realisiert wird. Dadurch ist gewährleistet, dass die Daten mittels SQL-basierten Tools abgelegt und analysiert werden können. Auch dateibasierte Schnittstellen (z.B. XML) können mittels EAI-Tools (vgl. inubit, BizTalk) in die DDS überführt werden.
  2. In der DDS gibt es ein mehrstufiges System zur Datenqualitätsabsicherung. Dazu werden die Rohdaten zuerst in einem sog. Staging-Bereich gesammelt. Neuartige, noch nicht validierte Datensätze werden vom Staging-Bereich in den MDM-Bereich transferiert. Sie haben somit den Status DATEN_UNGEPRÜFT.
  3. Im MDM-Bereich erfolgt die klassische Validierung, insb. auf Dubletten und Inkonsistenzen. Dazu werden Standardalgorithmen wie bspw. Fuzzy-Logic und sog. Mapping-Tabellen herangezogen, um Datensätze zu identifizieren und in unterschiedliche Problemklassen einzuteilen. Der neue Status ist nun DATEN_KLASSIFIZIERT.
  4. Mittels automatisierter Berichte (vgl. SSRS-Abonnements) ist es möglich, Dateninkonsistenzen periodische an sog. Clearing-Stellen zu berichten. Solche Prüfberichte können mittels HTML-Links in webbasierte MDM-Systeme verbinden, um den Korrektur-Ablauf für die Benutzer bestmöglich zu gewährleisten.
  5. Manuell nachbearbeitete Datensätze werden vom MDM zurück an die DDS geliefert und überführen die Datensätze in den nächsten Datenqualitätsstatus DATEN_VALIDIERT.
  6. Über eine konfigurierbare Signal-Funktion werden von der DDS die validierten Daten an andere Systeme weitergeleitet (Trigger-basiert).
Architekturskizze

Vorteile durch MDM mittels Microsoft SQL Server Stack

Microsoft SQL Server bietet neben der klassischen relationalen Datenbank viele weitere Services out-of-the-box. Neben den bekannten Themen wie Analysis Services (SSAS), Reporting Services (SSRS) und Integration Service (SSIS) drängen nun verstärkt die neuen, exotischen Services in den Vordergrund:

Machine-learning Services (vormals R-Services) und Master-Data-Services bilden im Verbund mit den tradierten Services ein optimales Toolset, um den MDM Projektansatz umsetzen zu können.

Mittels MDM können im Clearing-Center durch Machine-learning-Services vorvalidierte Datensätze nachbearbeitet werden, um dann mittels Integration Services zwischen den Datenqualitätsstufen transferiert zu werden.

Alles aus einer Hand, mit einem Toolset und zu einem lukrativen Preis, insbesondere dann, wenn Microsoft-SQL-Server-Lizenzen bereits vorhanden sind, nahezu kostenfrei.

Conclusio

MDM Services von Microsoft ist eine Komponente, um MDM erfolgreich umzusetzen. Aber erst das Zusammenspiel des kompletten SQL Server Stacks ermöglicht eine umfassende und integrative Behandlung des Themas. Organisatorische Rahmenbedingungen (Clearing-Stelle) und Workflow-basierte Abarbeitung sind das A und O, um die Komplexität zu beherrschen.

mehr lesen
Analytics, Auswertung, Statistik

SAP HANA und Microsoft BI: a true love-story?

beitragsbild-frage-wie-digital-transformation-1800×1200

Mit der neuen SAP HANA In Memory Technologie ist nun auch ein einfacher Zugriff auf SAP-Daten möglich.

Dazu gibt es im Microsoft BI Umfeld interessante Möglichkeiten, um an wertvolle ERP-Informationen zu gelangen

1. Zugriff mittels PowerBI Desktop

In der Self-Service-BI Suite „PowerBI Desktop“ ist ein Zugang mit dem neuen SAP HANA Connector möglich.

Zuerst ist es aber erforderlich, die SAP HANA ODBC Treiber für Windows zu installieren. Diese können unter https://support.sap.com/en/my-support/software-downloads.html direkt von SAP bezogen werden. Hier ist eine S-ID Voraussetzung, die man vom unternehmensinternen SAP-Admin erhalten kann.

Sind die ODBC-Treiber installiert, kann mit wenigen Klicks eine Verbindung zum HANA Server aufgebaut werden. Single-Sign-On und Berechtigung im SAP sind hier Voraussetzung.

Ist die Berechtigungshürde gemeistert, kann auf die entsprechenden Entitäten im HANA Datenbankmodell zugegriffen werden. Eine detaillierte Anleitung findet sich unter dem BI Channel von PowerBI https://www.youtube.com/watch?v=Zpbh6UE3pSE

2. Zugriff über SAP-PO und ETL

Ein Zugriff auf SAP Daten funktioniert am besten über die Schiene SAP PO (Process Orchestration) bzw. dem Vorgänger-System PI (Process Integration: https://de.wikipedia.org/wiki/SAP_Process_Integration ).

Dabei werden die SAP-Daten mittels PO auf eine unabhängig Datendrehscheibe (DDS) transferiert. PO kümmert sich nur um die erste Meile (von SAP zur DDS) und um die letzte Meile (von DDS nach SAP). SAP PO kann dabei auf BAPI, RFC sowie neue HANA Methoden zugreifen.

Die Datenextrakte werden mittels SQL-Statements auf Basis von JDBC direkt in eine SQL-basierte DDS geschrieben. Bspw. können mit einem SAP-Report alle FI-Belege eines Geschäftsjahres extrahiert werden. Diese Daten greift die PO auf, generiert ein SQL-Insert-Statement, welches dann auf die DDS abgesetzt wird. Sobald der Extraktionsvorgang fertig ist, ruft die PO eine Stored-Procedure auf der DDS auf, welche die Fertigmeldung absetzt und Folgeprozesse anstößt (bspw. den Weitertransport von der DDS in das DWH).

Hinweis: die PO/PI ist asynchron, d.h. man muss einen „Wait-On-PO“-Job anstoßen, der solange wartet, bis alle Daten aus der PO in die DDS übertragen wurden. Das ist zwar nicht ganz schön, funktioniert aber insofern charmant, weil die PO vor dem Übertrag nach DDS weiß, wie viele Datensätze ankommen sollen. Der WaitOnPO-Job wartet dann solange, bis in der DDS diese Anzahl an Datensätzen angekommen ist.

Alle anderen Schritte der klassischen ETL-Strecke – also Transformation/Harmonisierung und Datenkonvertierungen sollen in dafür spezialisierten EAI-Tools gemacht werden (inubit, SSIS, etc.).

Aus heutiger Sicht ist die PO leider zu schwerfällig und benutzerunfreundlich.

 

mehr lesen
Analytics, Auswertung, StatistikOffice 365On-Premises

Power BI Report Server: Was steckt wirklich dahinter?

beitragsbild-regen-wolken-regenschirm-online-arbeiten

Mit Juni und später mit August 2017 stellte Microsoft seine Antwort auf die Konkurrenz durch Qlikview und Tableau vor: Lokale Berichterstellung mit Power BI-Berichtsserver (https://powerbi.microsoft.com/de-de/report-server/)

Versprochen wird eine Verknüpfung der neuen Self-Services-Features, die seit 2016 durch Power BI Desktop bekannt sind, kombiniert mit den mächtigen Standard-Reporting-Funktionen der Reporting-Services aus dem SQL Server Stack. Damit können moderne, interaktive Berichte on-premise den unternehmensinternen Benutzern zur Verfügung gestellt werden.

mehr lesen
AllgemeinAnalytics, Auswertung, StatistikCloudCollaboration, ProduktivitätHow-To, Tutorial, SzenarioHybridOffice 365On-PremisesSharePoint 2016SharePoint Online

Benutzerfreundlich: Neues SharePoint Websiteinhalte-Dashboard mit Besuchertrends

Beitragsbild-Anleitung-Erste-Schritte-Ziel-Weg-Erfolg

„Modern Interfaces“ ist das neue Zauberwort in Office 365 und so hat auch die Websiteinhalte Verwaltung  in SharePoint Online ein modernes Aussehen verpasst bekommen. Weniger ist mehr ist das Motto und so glänzt das neue Websiteinhalte-Dashboard mit wenigen leicht verständlichen Elementen – sehr erfreulich. Übersichtliche Kacheln liefern die aktuellen Websiteberichte und Trends und das Benutzer Interface bietet Funktionen zum Erstellen und Anzeigen von Inhalten. Eine ansprechende Navigation mit wenigen Elementen die man sofort versteht und wer einen Ribbon sucht, wird auch hier keinen mehr finden, was in diesem Fall sehr gut ist.

Allgemeiner Überblick

Das Dasboard bietet folgende Bereiche:

  • Kacheln mit Websiteberichten und Trend
  • Inhalt & Unterwebsites
  • Neue Inhalte erstellen
  • Websiteworkflows & Websiteeinstellungen

Die folgende Abbildung zeigt das neue Websiteinhalte-Dashboard:

screenshot-office-365-sharepoint-online-neue-websiteinhalte-uebersicht-1

Sehr übersichtlich mit den wichtigsten Informationen um eben Websiteinhalten einfach und schnell verwalten zu können, eindeutig benutzerfreundlich. Im unteren Bereich des Websiteinhalte-Dashboards findet man die entsprechenden Inhalte und Unterwebsites gelistet. Oben erhält man einen schnellen Überblick, ob eine Website verwendet wird und kann daraus idealerweise entsprechende Schlüsse ziehen (z.B. ob eine Website erfolgreich verwendet wird oder eben nicht). Im Folgenden wollen wir uns das genauer ansehen.

Detail: Kachel Websitebesuche

Die Kachel Websitebsuche gibt einen raschen Überblick eben ob eine Website verwendet wird (Besuche) und bietet einen Trendindikator. So kann man sehen, ob die Besuche zunehmen oder abnehmen über die letzten 7-Tage. Der Trendindikator wird dabei in Prozent angezeigt (positiver/negativer Trend in Prozent).

Die folgende Abbildung zeigt ein entsprechendes Beispiel:

screenshot-office-365-sharepoint-online-neue-websiteinhalte-detail-trend-kachel-websitebericht

 

Über die Schaltfläche „Bericht anziegen“ kann man sich einen Detailbericht abrufen lassen.

Detail: Websitebericht anzeigen

Der Bericht zeigt mehr Details als die Kachel auf dem Websiteinhalte-Dashboard, so kann man auch sehen, wie viele Veränderungen es insgesamt geben hat. Zusätzlich werden im Trend liegende „Top“ Inhalte mit einem grafischen Balken (Verhältnis „wie oft angezeigt“) in Form einer Highscore Tabelle dargestellt.

Die folgende Abbildung zeigt einen Websitebericht:

screenshot-office-365-sharepoint-online-neue-websiteinhalte-detail-websitebericht

Leider kann man hier nicht weitere Details erfahren, erhält aber einen allgemeinen sehr schnellen Eindruck über die Verwendung einer Website – benutzerfreundlich leicht eben und das ist gut so, wie ich persönlich empfinde.

Detail: Kachel Besuchertrends

Die im Trend liegenden SharePoint Inhalte werden hier ebenfalls auf dem Websiteinhalte-Dashboard (abgespeckt) angezeigt, wer mehr wissen will kann sich wieder den Websitebericht anzeigen lassen (siehe oben).

Die folgende Abbildung zeigt ein Beispielt:

screenshot-office-365-sharepoint-online-neue-websiteinhalte-detail-trend-kachel-anzeigestatistik

Auch hier wieder ein Leider, weil man nicht weiter ins Detail gehen kann, dafür benutzerfreundlich eben. Wenn man zum Beispiel mit die Maus über einen angezeigten Inhalt bewegt werden Informationen zur Person angezeigt, die den Inhalt zuletzt geändert hat. Im Flyout werden auch die letzten Dokumente der Person angezeigt, die diese Person verändert hat (und auf die ich natürlich auch Zugriffsrechte haben muss) hat. Weiter werden die „unterstellten“ Mitarbeiter in Bezug zur Person angezeigt. Wenn man mehr wissen will, kann man auf die Schaltfläche „mehr Informationen“ klicken und kommt zum Office 365 Delve Dashboard – und da schließt sich der Kreis – es werden also die in Delve vorhanden Informationen einfach vernetzt in der Trendkachel angezeigt. Super!

Die folgende Abbildung zeigt dies, in dem Fall bin ich es selber (und könnte hier auch gleich mein Profil verändern und noch interessanter, auch scheinbar mehr über mich erfahren *neugierig*):

screenshot-office-365-sharepoint-online-neue-websiteinhalte-detail-trend-kontakt-flyout

Eine sehr praktische Funktion die zeigt, wie Inhalte intelligent verknüpft einen echten Mehrwert liefern kann.

Sonstiges: Neue Inhalte erstellen und weitere Einstellungen

Selbstverständlich kann man auch neue Inhalte per Knopfdruck erstellen, einfach am Websiteinhalte-Dashboard auf neu klicken und auswählen:

screenshot-office-365-sharepoint-online-neue-websiteinhalte-detail-neues-item-anlegen

Über das Dashboard gelangt man natürlich auch sehr einfach zu den Workfloweinstellungen oder eben Websiteeinstellungen, so wie man das immer schon kennt. Hier also keine Nueigikeiten im User Interface, wie die folgende Abbildung zeigt:

screenshot-office-365-sharepoint-online-neue-websiteinhalte-detail-websiteeinstellungen

Fazit

Das „Modern Interface“ liefert mit dem neuen SharePoint Websiteinhlate-Dashboard einen echten Mehrwert und glänzt durch Übersicht und einfachste Bedienungen. Benutzerfreundlichkeit durch „abgespecktes“ User Interface kann man sagen, oder besser, nun ohne Ribbon mit überladener Funktionsvielfalt. Interessant sind auf jeden Fall auch die Besucherstatistik und Trend, meiner Meinung nach die wichtigste Neuerung. Die Funtkionalität liefert wertvollen Input für den Betrieb und Erfolg von Websites in Unternehmen. Die Kunst ist es, diese Statistiken mir Organisationsprozessen zu versehen, die „reagieren“, wenn z.B. eine Website wenig erfolgreich ist. Die „Modern Interface“ Strategie zeigt hier einen echten Mehrwert der darüber hinaus ganz gut ungesetzt wurde, also sehr brauchbar und kommt im ersten Feature Pack sicherlich auch für SharePoint 2016 somit.

 

mehr lesen
AllgemeinAnalytics, Auswertung, StatistikCollaboration, ProduktivitätHow-To, Tutorial, SzenarioMobilityOn-PremisesSharePoint 2013Veranstaltung, Event, Konferenz

#ESPC2013: Attractive Business Intelligence & Windows 8 Apps

Altes Bild zu posts

Der heutige Tag begann gleich mal mit einem Spektakel: Stromausfall in ganz Kopenhagen!! Naja, den Kaffee konnte ich auch im Finsteren in Ruhe trinken Zwinkerndes Smiley

Der Ausfall dauerte aber nur wenige Minuten und somit stand den Break Out Session nichts mehr im Wege.

Attractive BI for Office and SharePoint

Wie auch schon bei früheren SharePoint Konferenzen darf natürlich ein begnadeter Redner nicht fehlen, wenn es um das Thema Business Intelligence geht. Rafal Lukawiecki

Mit seiner gewohnt beschwingten und mitreissenden Key Note hat Rafal die zahlreichen neuen Möglichkeiten zur Analyse und Darstellung von großen Datenmengen mit Hilfe von SQL Server 2012, SharePoint 2013 und Office 2013 aufgezeigt.

BI1

mehr lesen
AllgemeinAnalytics, Auswertung, StatistikEnterprise SearchHow-To, Tutorial, SzenarioKonfiguration, DeploymentOn-PremisesSharePoint 2013

Web Analytics nun Bestandteil der Search Service Application

Im neuen SharePoint gibt es keine eigene Service Application für Web Analytics mehr, wie bereits kurz “angeschnitten”. Warum? Ganz einfach, diese wird nun von der SharePoint 2013 Search Service Application abgedeckt. Der Vorteil liegt darin, dass die Suche nun anhand der Web Analytics Auswertungen optimierte Suchergebnisse liefert. Beiträge die z.B. oft eingesehen werden oder gar gut beurteilt wurden werden somit besser gereiht (Ranking).

Die folgende Grafik zeigt dies sehr gut …

SharePoint 2013 Search Architektur und Web Analytics

Im Punkt 3 sieht man, wie sich die “Analytics Processing Component” in der Search Architektur des neuen SharePoint 2013 integriert. Ich denke eine sehr gute Entscheidung von Microsoft, denn so hat man nicht nur tolle Auswertungen sondern auch wesentlich effizientere und bessere Suchergebnisse.

Wer mehr über die neue Search Architektur wissen will, schaut am besten hier mal vorbei:

>> Download TechNet SharePoint 2013 Search Architektur Technical Diagram

LG
Nahed Hatahet | nahed@hatahet.eu | powered by YouTube SharePoint 2013 TV Channel

Published: 30.10.2012 22:00

Source: New feed

mehr lesen
AllgemeinAnalytics, Auswertung, StatistikCloudHow-To, Tutorial, SzenarioHybridKonfiguration, DeploymentOffice 365On-PremisesSharePoint 2013SharePoint Online

SharePoint 2013: Auswertungen und Trendanalyse über die neue Popularity Trends Funktion im Ribbon

Beitragsbild Collaboration Cloud Productivity allgemein

Auch im Ribbon tauchen einige neue Funktionalitäten auf, so auch das NEUE SharePoint 2013 Auswertungstool mit der Bezeichnung “Popularity Trends”.

HATAHET SharePoint 2013 Screenshot Popularity Trends Feature

So kann man also eine Trendanalyse rasch über den Ribbon für jenes SharePoint 2013 Objekt erzeugen, welches man gerade aktiv ist (z.B. Seite, Dokumentbibliothek, usw.). Ich selbst finde die Integration in den Ribbon sehr Benutzerfreundlich.

Führt man diese neue Funktion aus wird ein Excel-Report erstellt (in meinem Fall mit der Excel 2013 Preview), der dann die Details zur Verfügung stellt …

mehr lesen