Alles nur Buzzwords?
IT-Begriffe und
Ihre Bedeutung
Alles nur Buzzwords?
IT-Begriffe und
Ihre Bedeutung
Alles nur Buzzwords?
IT-Begriffe und
ihre Bedeutung
Wir erklären digitales Fachvokabular verständlich.
Wir erklären digitales Fachvokabular verständlich.
Als verlässlicher Partner begleiten wir Ihre Transformation und die dazu gehörenden Digitalisierungsprojekte. In unsere Rubrik „informativ“ erläutern wir technischen Fachbegriffe für Entscheider mit kaufmännischem Hintergrund. In zahlreichen Kundengesprächen und Workshops erleben wir täglich die Fallsticke der unbedachten und unkommentierten Verwendung von Fachvokabular. So entstehen im Zweifel Missverständnisse, welche in weitreichende strategische Fehlentscheidungen münden können. Als Knowledge Träger sehen wir hier auch unsere gesellschaftliche Verantwortung, mit gutem digital Content unkompliziert zu unterstützen.
Als verlässlicher Partner begleiten wir Ihre Transformation und die dazu gehörenden Digitalisierungsprojekte. In unsere Rubrik „informativ“ erläutern wir technischen Fachbegriffe für Entscheider mit kaufmännischem Hintergrund. In zahlreichen Kundengesprächen und Workshops erleben wir täglich die Fallsticke der unbedachten und unkommentierten Verwendung von Fachvokabular. So entstehen im Zweifel Missverständnisse, welche in weitreichende strategische Fehlentscheidungen münden können. Als Knowledge Träger sehen wir hier auch unsere gesellschaftliche Verantwortung, mit gutem digital Content unkompliziert zu unterstützen.
Das kleine IT Lexikon
Methoden der linearen Statistik werden mittels Advanced Analytics von den heutigen Statistiken innerhalb von KI-Anwendungen oder des Data Minings unterschieden. Dabei sind auch Analysen hochkomplexer Räume zulässig, in welchen sich die Daten in starker Abhängigkeit voneinander befinden. Die Basis bilden hierbei Multivalenz Methoden und nicht-lineare Modelle.
Ein Algorithmus ist eine logisch-mathematische Instruktion, anhand derer Befehle und Berechnungen ausgeführt werden. Analog zur Eingabe erfolgt in direkter Konsequenz eine absehbare Ausgabe. Ein prädiktiver Algorithmus kann beispielsweise die zukünftigen Produktkäufe einer bestimmten Kundengruppe prognostizieren. Hierzu sind nur wenigen Werte und Eckdaten notwendig.
Big Data umfasst alle Techniken der Verarbeitung von Datenquellen und Datenanalyse, bei denen die auszuwertenden Datenmengen zu schnell wachsen, zu groß sind oder nicht hinreichend mit Metadaten verknüpft wurden, um ihre Quelle oder Relevanz für ihre weitere Verarbeitung auszulesen. Insbesondere den Datenbeständen mittelständischer Unternehmen fehlt es oft an diesen wichtigen strukturierenden Elementen, nach denen die Quelltexte gezielt nach relevanten Metadaten ausgelesen werden können. Weil klassische Analyseverfahren und Datenbankanalysen zu zeitaufwendig wären oder versagen, wird zukünftig zur Analyse derartiger Datenquellen KI und Data Mining verwendet.
Ein Botnetz, oder auch Botnet, ist ein Distributed Computing Network, also ein Netzwerk aus gekaperten, voneinander unabhängig arbeitenden Computern. Diese können zwar miteinander kommunizieren, führen ihre Aufgaben aber getrennt voneinander aus.
Mittels einer Malware schleusen die Betreiber eines Botnetzes Schadprogramme (sog. Bots) auf fremde, schlecht geschützte Computer ein. Von den Usern unbemerkt, agieren die Bots unauffällig im Hintergrund. Der Angreifer kann so die vollständige Kontrolle über alle Anwendungen, Dienste, IT-Systeme und Daten gewinnen und den Computer zu kriminellen Zwecken missbrauchen. Ein Botnetz kann aus Computern, IP-Kameras, Smartphones und Smart-TVs bestehen.
Mathematische Algorithmen, die Informationen auf die Zugehörigkeit zu einer bestimmten Klasse abbilden können, werden als Classifier (Klassifizierer) bezeichnet. Stehen beispielsweise Daten zu Webseiten Aufrufe eines Nutzers zur Verfügung, kann mittels eines Classifiers das Geschlecht errechnet werden.
Analytische beschreibende Methoden werden als Data Mining bezeichnet. Es wird nicht auf das Generieren von Algorithmen oder Einschränkungsformeln für die Vorhersehbarkeit von Verhalten abgezielt, sondern auf das „Schürfen“ nach verborgenen Erkenntnissen innerhalb der Datenbasis. Analysen werden ohne durch menschliche Erfahrungen geprägte Vorannahmen durchgeführt. So werden Zusammenhänge sichtbar, die zuvor so nicht angenommen und daher auch noch nicht beschrieben wurden.
Die interdisziplinäre Forschung zur Verarbeitung, Nutzung und Analyse von Daten wird als Data Science bezeichnet. Sie umfasst die Auseinandersetzung mit den gängigen Programmierparadigmen, den für die Anwendung von KI-Verfahren geeigneten Algorithmen und statistischen Modelle.
Durch das Clustering von Daten werden Informationen zu größeren Datensätzen zusammengefasst, welche Zusammenhänge oder Gemeinsamkeiten aufweisen. Die einzelnen Merkmale eines Clusters werden per Bottom-Up zusammengefasst oder mittels Top-Down Methode unterteilt. Somit lassen sich Informationen besser sichten und bewerten, um bessere Methoden zur Auslese und Verwendung ableiten zu können.
Die Abkürzung DDoS steht für Distributed Denial of Service. Eine DDoS-Attacke ist eine Angriffsmethode im Internet mit der Intention, durch eine gezielte Überlastung des Datennetzes die Nichtverfügbarkeit eines Internetservices herbeizuführen.
Im Gegensatz zu einer Denial of Service-Attacke (DoS-Attacke), die unbeabsichtigt verursacht werden kann oder auch von einem einzelnen Host ausgeht, besteht eine DDoS-Attacke in der Regel aus einer Vielzahl einzelner Anfragen eines großen ferngesteuerten Botnetzes.
Einen Teilbereich des Machine Learning stellen die Methoden des Deep Learning dar. Hierbei wird auf biologische und lerntheoretische Modelle der Neurowissenschaften rund um die Entwicklung neuronaler Netzwerke zurückgegriffen. Deep Learning geht hierarchisch vor und überträgt diese Erkenntnisse auf künstlich neuronale Netzwerke. Herausforderungen werden gelöst, indem sie über mehrere Schichten hinweg, in zeitlicher Abfolge analysiert werden. Aufgrund des Durchlaufens jeder einzelnen Schicht wird das Problem tiefer erfasst.
Um den Zustand eines Datensatzes zu beschreiben, setzt man Descriptive Analytics ein. Hierbei handelt es sich um beschreibende Analysetechniken. Mittels Clustering, durch Nearest-Neighbour-Algorithmen oder Hypothesentests werden unternehmenseigene Datenbanken, wie beispielsweise die Daten zu Geräten und Mitarbeitern im produktiven Einsatz, analysiert. Ziel ist es, diese besser zu verstehen und für zukünftige Anwendungen verwertbar zu machen.
KI (künstliche Intelligenz/dt) oder AI (Artificial Intelligence/engl.) umfasst verschiedene Technologien, mit denen Maschinen wahrnehmen, verstehen, handeln und lernen können. Grundlage sind statistische Verfahren auf deren Basis es möglich ist, in Bruchteilen einer Sekunde trotz unzureichender Informationslage, automatische Entscheidungen zu fällen. Dabei werden große Datenmengen verarbeitet. Vielfach sind diese auch widersprüchlich oder heben sich gegenseitig auf. Maschinen treffen anhand von Methoden und Regeln der künstlichen Intelligenz komplexe Entscheidungen, welche aus der Gesamtlage der Informationen abgeleitet werden. Sie sollen also nicht „unvernetzt“ und „stumpf“ reagieren, sondern möglichst schnell Entscheidungen treffen, wie es auch Menschen mit Hilfe von Intuition und Intelligenz möglich wäre. KI verändert die Beziehung zwischen Technologie und Mensch grundlegend. Wir stehen an der Startlinie in ein neues Zeitalter der Produktivität. Die menschliche Innovationskraft ist in diesem disruptiven Umfeld schneller und präziser als je zuvor.
Für die Modellierung von Vorgängen innerhalb des maschinellen Lernens werden sogenannte Künstliche Neuronale Netze (KNN) eingesetzt. Hierbei dient das menschliche Gehirn mit seinen neuronalen Netzen als strukturelles Vorbild. Erfolgreiche Einsatzgebiete sind Clustering, Regression und Klassifizierung.
Von Machine Learning spricht man, wenn mittels Software Zusammenhänge innerhalb von Strukturen ohne die Einwirkung des Menschen erkannt werden. Dabei gelingt es relativ häufig, Beziehungen innerhalb vorliegender Daten und Informationen aufzuspüren, welche dem Menschen aufgrund von Vorurteilen und Vorannahmen verborgen bleiben. Machine Learning wird mit der Absicht initiiert, einen Classifier (Algorithmus) zu trainieren, welcher aus unstrukturierten Daten Modelle ausliest, um damit Verhaltensmuster vorhersagen zu können.
Malware, oder auch Schadsoftware, bezeichnet Computerprogramme, die entwickelt wurden, um Geräte ohne das Wissen des Users zu infiltrieren. Die meisten Malware-Infektionen treten auf, wenn der User durch das Klicken eines Links in einer E-Mail oder das Aufrufen einer schädlichen Website versehentlich Malware herunterlädt. Malware kann große Schäden verursachen, wie z.B. die Kompromittierung von Firewall und Antivirenprogrammen, die Manipulation oder das Löschen von Dateien oder das Sammeln von Daten zu Marketing-Zwecken. Zu den gängigen Arten von Malware gehören Adware, Spyware, Viren, Botnetze, Trojaner, Würmer, Rootkits und Ransomware.
Mittels Predictive Analytics werden Vorhersehbarkeiten erkannt. Ausgehend von bekannten Ergebnissen und Daten werden prädikative Algorithmen auf noch unbekannte Ergebnisse angewendet. Das ist wichtig, um auf zukünftige Ereignisse rechtzeitig zu reagieren oder präventive Maßnahmen zu ergreifen. So ist es beispielsweise möglich, mit prädikativen Analysemethoden noch vor einem Kauf die Zahlungsbereitschaft oder Wünsche möglicher Käufer abzuschätzen.
Eine Regression liefert aus einer Menge von Eingabedaten eine oder mehrerer reelle Zahlen. Die Auswertung von Informationen anhand eines Regressionsalgorithmus beruht auf Wahrscheinlichkeitsberechnungen. Anhand von zuvor besuchten Webseiten lässt sich somit die Zahlungsbereitschaft eines Kunden prognostizieren.
Strukturierte Daten sind einer bestimmten Ordnung folgend in einer Datenbank gespeichert. Die Relationen sind untereinander bekannt und es ist ein klares Format vorgegeben. Dadurch ist es möglich, diese zu sortieren oder nach verschiedenen Kriterien zu filtern. Relationale Datenbanken, die Tabellen, Attribute und Beziehungen verwalten, können strukturierte Daten ohne großen Aufwand zuverlässig verarbeiten.
Sind Relevanz oder Relation von Daten hinsichtlich Anderer nicht oder nur teilweise bekannt, werden diese als unstrukturierte Daten bezeichnet. Nach diesen kann auf direktem Weg weder sortiert noch gefiltert werden. Medialer Content wie beispielsweise Bilder, deren Referenz nicht unmittelbar vorhanden ist (z.B. mangels Metadaten), benötigt dann ein höherrangiges Analysemodell für eine entsprechend sinnvolle Bewertung.
Das kleine IT Lexikon
Methoden der linearen Statistik werden mittels Advanced Analytics von den heutigen Statistiken innerhalb von KI-Anwendungen oder des Data Minings unterschieden. Dabei sind auch Analysen hochkomplexer Räume zulässig, in welchen sich die Daten in starker Abhängigkeit voneinander befinden. Die Basis bilden hierbei Multivalenz Methoden und nicht-lineare Modelle.
Ein Algorithmus ist eine logisch-mathematische Instruktion, anhand derer Befehle und Berechnungen ausgeführt werden. Analog zur Eingabe erfolgt in direkter Konsequenz eine absehbare Ausgabe. Ein prädiktiver Algorithmus kann beispielsweise die zukünftigen Produktkäufe einer bestimmten Kundengruppe prognostizieren. Hierzu sind nur wenigen Werte und Eckdaten notwendig.
Big Data umfasst alle Techniken der Verarbeitung von Datenquellen und Datenanalyse, bei denen die auszuwertenden Datenmengen zu schnell wachsen, zu groß sind oder nicht hinreichend mit Metadaten verknüpft wurden, um ihre Quelle oder Relevanz für ihre weitere Verarbeitung auszulesen. Insbesondere den Datenbeständen mittelständischer Unternehmen fehlt es oft an diesen wichtigen strukturierenden Elementen, nach denen die Quelltexte gezielt nach relevanten Metadaten ausgelesen werden können. Weil klassische Analyseverfahren und Datenbankanalysen zu zeitaufwendig wären oder versagen, wird zukünftig zur Analyse derartiger Datenquellen KI und Data Mining verwendet.
Ein Botnetz, oder auch Botnet, ist ein Distributed Computing Network, also ein Netzwerk aus gekaperten, voneinander unabhängig arbeitenden Computern. Diese können zwar miteinander kommunizieren, führen ihre Aufgaben aber getrennt voneinander aus.
Mittels einer Malware schleusen die Betreiber eines Botnetzes Schadprogramme (sog. Bots) auf fremde, schlecht geschützte Computer ein. Von den Usern unbemerkt, agieren die Bots unauffällig im Hintergrund. Der Angreifer kann so die vollständige Kontrolle über alle Anwendungen, Dienste, IT-Systeme und Daten gewinnen und den Computer zu kriminellen Zwecken missbrauchen. Ein Botnetz kann aus Computern, IP-Kameras, Smartphones und Smart-TVs bestehen.
Mathematische Algorithmen, die Informationen auf die Zugehörigkeit zu einer bestimmten Klasse abbilden können, werden als Classifier (Klassifizierer) bezeichnet. Stehen beispielsweise Daten zu Webseiten Aufrufe eines Nutzers zur Verfügung, kann mittels eines Classifiers das Geschlecht errechnet werden.
Analytische beschreibende Methoden werden als Data Mining bezeichnet. Es wird nicht auf das Generieren von Algorithmen oder Einschränkungsformeln für die Vorhersehbarkeit von Verhalten abgezielt, sondern auf das „Schürfen“ nach verborgenen Erkenntnissen innerhalb der Datenbasis. Analysen werden ohne durch menschliche Erfahrungen geprägte Vorannahmen durchgeführt. So werden Zusammenhänge sichtbar, die zuvor so nicht angenommen und daher auch noch nicht beschrieben wurden.
Die interdisziplinäre Forschung zur Verarbeitung, Nutzung und Analyse von Daten wird als Data Science bezeichnet. Sie umfasst die Auseinandersetzung mit den gängigen Programmierparadigmen, den für die Anwendung von KI-Verfahren geeigneten Algorithmen und statistischen Modelle.
Durch das Clustering von Daten werden Informationen zu größeren Datensätzen zusammengefasst, welche Zusammenhänge oder Gemeinsamkeiten aufweisen. Die einzelnen Merkmale eines Clusters werden per Bottom-Up zusammengefasst oder mittels Top-Down Methode unterteilt. Somit lassen sich Informationen besser sichten und bewerten, um bessere Methoden zur Auslese und Verwendung ableiten zu können.
Die Abkürzung DDoS steht für Distributed Denial of Service. Eine DDoS-Attacke ist eine Angriffsmethode im Internet mit der Intention, durch eine gezielte Überlastung des Datennetzes die Nichtverfügbarkeit eines Internetservices herbeizuführen.
Im Gegensatz zu einer Denial of Service-Attacke (DoS-Attacke), die unbeabsichtigt verursacht werden kann oder auch von einem einzelnen Host ausgeht, besteht eine DDoS-Attacke in der Regel aus einer Vielzahl einzelner Anfragen eines großen ferngesteuerten Botnetzes.
Einen Teilbereich des Machine Learning stellen die Methoden des Deep Learning dar. Hierbei wird auf biologische und lerntheoretische Modelle der Neurowissenschaften rund um die Entwicklung neuronaler Netzwerke zurückgegriffen. Deep Learning geht hierarchisch vor und überträgt diese Erkenntnisse auf künstlich neuronale Netzwerke. Herausforderungen werden gelöst, indem sie über mehrere Schichten hinweg, in zeitlicher Abfolge analysiert werden. Aufgrund des Durchlaufens jeder einzelnen Schicht wird das Problem tiefer erfasst.
Um den Zustand eines Datensatzes zu beschreiben, setzt man Descriptive Analytics ein. Hierbei handelt es sich um beschreibende Analysetechniken. Mittels Clustering, durch Nearest-Neighbour-Algorithmen oder Hypothesentests werden unternehmenseigene Datenbanken, wie beispielsweise die Daten zu Geräten und Mitarbeitern im produktiven Einsatz, analysiert. Ziel ist es, diese besser zu verstehen und für zukünftige Anwendungen verwertbar zu machen.
KI (künstliche Intelligenz/dt) oder AI (Artificial Intelligence/engl.) umfasst verschiedene Technologien, mit denen Maschinen wahrnehmen, verstehen, handeln und lernen können. Grundlage sind statistische Verfahren auf deren Basis es möglich ist, in Bruchteilen einer Sekunde trotz unzureichender Informationslage, automatische Entscheidungen zu fällen. Dabei werden große Datenmengen verarbeitet. Vielfach sind diese auch widersprüchlich oder heben sich gegenseitig auf. Maschinen treffen anhand von Methoden und Regeln der künstlichen Intelligenz komplexe Entscheidungen, welche aus der Gesamtlage der Informationen abgeleitet werden. Sie sollen also nicht „unvernetzt“ und „stumpf“ reagieren, sondern möglichst schnell Entscheidungen treffen, wie es auch Menschen mit Hilfe von Intuition und Intelligenz möglich wäre. KI verändert die Beziehung zwischen Technologie und Mensch grundlegend. Wir stehen an der Startlinie in ein neues Zeitalter der Produktivität. Die menschliche Innovationskraft ist in diesem disruptiven Umfeld schneller und präziser als je zuvor.
Für die Modellierung von Vorgängen innerhalb des maschinellen Lernens werden sogenannte Künstliche Neuronale Netze (KNN) eingesetzt. Hierbei dient das menschliche Gehirn mit seinen neuronalen Netzen als strukturelles Vorbild. Erfolgreiche Einsatzgebiete sind Clustering, Regression und Klassifizierung.
Von Machine Learning spricht man, wenn mittels Software Zusammenhänge innerhalb von Strukturen ohne die Einwirkung des Menschen erkannt werden. Dabei gelingt es relativ häufig, Beziehungen innerhalb vorliegender Daten und Informationen aufzuspüren, welche dem Menschen aufgrund von Vorurteilen und Vorannahmen verborgen bleiben. Machine Learning wird mit der Absicht initiiert, einen Classifier (Algorithmus) zu trainieren, welcher aus unstrukturierten Daten Modelle ausliest, um damit Verhaltensmuster vorhersagen zu können.
Malware, oder auch Schadsoftware, bezeichnet Computerprogramme, die entwickelt wurden, um Geräte ohne das Wissen des Users zu infiltrieren. Die meisten Malware-Infektionen treten auf, wenn der User durch das Klicken eines Links in einer E-Mail oder das Aufrufen einer schädlichen Website versehentlich Malware herunterlädt. Malware kann große Schäden verursachen, wie z.B. die Kompromittierung von Firewall und Antivirenprogrammen, die Manipulation oder das Löschen von Dateien oder das Sammeln von Daten zu Marketing-Zwecken. Zu den gängigen Arten von Malware gehören Adware, Spyware, Viren, Botnetze, Trojaner, Würmer, Rootkits und Ransomware.
Mittels Predictive Analytics werden Vorhersehbarkeiten erkannt. Ausgehend von bekannten Ergebnissen und Daten werden prädikative Algorithmen auf noch unbekannte Ergebnisse angewendet. Das ist wichtig, um auf zukünftige Ereignisse rechtzeitig zu reagieren oder präventive Maßnahmen zu ergreifen. So ist es beispielsweise möglich, mit prädikativen Analysemethoden noch vor einem Kauf die Zahlungsbereitschaft oder Wünsche möglicher Käufer abzuschätzen.
Eine Regression liefert aus einer Menge von Eingabedaten eine oder mehrerer reelle Zahlen. Die Auswertung von Informationen anhand eines Regressionsalgorithmus beruht auf Wahrscheinlichkeitsberechnungen. Anhand von zuvor besuchten Webseiten lässt sich somit die Zahlungsbereitschaft eines Kunden prognostizieren.
Strukturierte Daten sind einer bestimmten Ordnung folgend in einer Datenbank gespeichert. Die Relationen sind untereinander bekannt und es ist ein klares Format vorgegeben. Dadurch ist es möglich, diese zu sortieren oder nach verschiedenen Kriterien zu filtern. Relationale Datenbanken, die Tabellen, Attribute und Beziehungen verwalten, können strukturierte Daten ohne großen Aufwand zuverlässig verarbeiten.
Sind Relevanz oder Relation von Daten hinsichtlich Anderer nicht oder nur teilweise bekannt, werden diese als unstrukturierte Daten bezeichnet. Nach diesen kann auf direktem Weg weder sortiert noch gefiltert werden. Medialer Content wie beispielsweise Bilder, deren Referenz nicht unmittelbar vorhanden ist (z.B. mangels Metadaten), benötigt dann ein höherrangiges Analysemodell für eine entsprechend sinnvolle Bewertung.
Für die korrekte Funktionsweise dieser Website sind Cookies wichtig. Um die allgemeine Nutzung unserer Webseite besser zu verstehen und Ihren Besuch noch interessanter und personalisierter gestalten zu können, setzen wir Cookies und andere Technologien ein. Die Speicherung dieser Informationen erfolgt anonym. Lesen Sie unsere Datenschutzerklärung bitte hier.