
Datadog
Erfahrungen | Alternative | Preise & Kosten
Inhalt
Beschreibung
Wenn du auf der Suche nach einem Tool bist, mit dem du deine gesamte IT-Infrastruktur in Echtzeit überwachen, analysieren und optimieren kannst, dann ist Datadog für dich genau das Richtige. Du bekommst hier eine Plattform, die verschiedene Bereiche wie Monitoring, Security und Performance-Analyse intelligent miteinander verbindet – und das für Cloud, Server, Container, Anwendungen und Services gleichermaßen. Egal ob du Entwickler, DevOps-Engineer oder Security-Verantwortlicher bist – mit Datadog behältst du immer den vollen Überblick.
Stell dir vor, du arbeitest mit verteilten Systemen oder Microservices – das kann schnell unübersichtlich werden. Datadog hilft dir dabei, genau zu erkennen, wo es gerade hakt. Du kannst Metriken, Logs und Traces zentral sammeln, korrelieren und analysieren. Das gibt dir nicht nur Transparenz, sondern auch die Möglichkeit, Fehler schneller zu erkennen und gezielt zu beheben. Besonders stark ist Datadog im Bereich Observability: Du siehst also nicht nur die Symptome, sondern kommst den Ursachen auf die Spur.
Ein echtes Highlight ist das Dashboardsystem. Du kannst dir komplett individuelle Dashboards zusammenstellen, mit Echtzeitdaten aus allen deinen Systemen – und das ganz ohne Programmieraufwand. Per Drag and Drop, super intuitiv. Wenn du willst, kannst du dir auch Alarme einrichten, die dich bei bestimmten Schwellenwerten automatisch benachrichtigen – sei es per Mail, Slack oder andere Tools, die du nutzt.
Ein weiterer Punkt, den du lieben wirst, ist die Integrationstiefe. Datadog bringt über 600 Integrationen mit, darunter AWS, Azure, Google Cloud, Kubernetes, Docker, Jenkins, GitHub und viele mehr. Du musst also nicht erst groß basteln, um dein Setup anzubinden – das meiste funktioniert direkt out of the box. Und falls du eigene Tools hast, kannst du mit der API oder dem Agent auch eigene Metriken erfassen.
Auch beim Thema Sicherheit hat Datadog einiges zu bieten. Du kannst Sicherheitsbedrohungen erkennen, Schwachstellen analysieren und Compliance-Richtlinien überwachen – alles auf derselben Plattform, auf der auch dein Performance-Monitoring läuft. So bekommst du ein einheitliches Bild deiner Systemlandschaft und musst nicht zwischen verschiedenen Tools hin- und herspringen.
Wenn du in Teams arbeitest, profitierst du zusätzlich von der kollaborativen Struktur. Du kannst Dashboards teilen, Kommentare hinterlassen oder gemeinsame Analysen durchführen – das spart Zeit und erleichtert die Kommunikation zwischen Entwicklung, Betrieb und Security enorm.
Testen
- Kostenlose Trial-Version
Preise
- Kostenlose Basis-Version
- 15$/Monat
Videos
Reviews | ⭐⭐⭐⭐⭐
Wenn du dir überlegst, ob Datadog das richtige Tool für dich ist, helfen dir die Erfahrungen anderer Nutzer bestimmt weiter. Viele berichten, dass sie mit Datadog eine echte Transparenz über ihre gesamte IT-Landschaft gewonnen haben. Besonders gelobt wird die Möglichkeit, Metriken, Logs und Traces in einer Oberfläche zusammenzuführen. Dadurch musst du nicht ständig zwischen verschiedenen Tools hin- und herspringen, sondern kannst dir direkt ein umfassendes Bild machen. Das spart nicht nur Zeit, sondern hilft dir auch dabei, Probleme schneller zu erkennen und zu beheben.
Ein großer Pluspunkt, den viele hervorheben, ist das Dashboard. Es ist sehr flexibel und lässt sich ganz einfach anpassen – sogar ohne technische Vorkenntnisse. Du kannst dir genau die Visualisierungen bauen, die du für deinen Alltag brauchst. Einige Nutzer sagen, dass sie dadurch im Alltag viel proaktiver handeln können, weil sie wichtige Entwicklungen sofort sehen und verstehen.
Auch die Vielzahl an Integrationen kommt gut an. Gerade wenn du in einer Umgebung mit AWS, Kubernetes, Jenkins oder ähnlichen Tools arbeitest, profitierst du davon, dass alles nahtlos zusammenspielt. Viele berichten, dass die Einrichtung überraschend schnell geht – oft reicht es, ein paar Konfigurationen vorzunehmen, und schon fließen die ersten Daten ein. Das macht den Start angenehm unkompliziert.
Auf der anderen Seite gibt es aber auch kritische Stimmen. Manche Nutzer empfinden die Preisstruktur als relativ hoch, besonders wenn viele Funktionen und Integrationen aktiv genutzt werden. Auch die Tatsache, dass man bei der Kostenkontrolle sehr genau hinschauen muss, wird immer wieder genannt. Wenn du also ein begrenztes Budget hast, solltest du dir vorher genau überlegen, welche Module du wirklich brauchst.
Ein weiterer Punkt, der manchmal angesprochen wird, ist die Lernkurve. Gerade wenn du noch nicht so viel Erfahrung mit Observability und Monitoring hast, kann dich die Fülle an Funktionen anfangs ein bisschen überfordern. Viele Nutzer empfehlen deshalb, sich etwas Zeit zu nehmen, um das Tool wirklich kennenzulernen – denn es lohnt sich.
Vorteile [+]
Zentrale Übersicht: Du bekommst eine einheitliche Plattform, auf der du Metriken, Logs und Traces gemeinsam analysieren kannst. Das spart dir Zeit und gibt dir schnell Klarheit über Probleme.
Vielfalt an Integrationen: Du kannst Datadog mit über 600 Systemen verbinden, ohne großen Aufwand. Egal ob Cloud, Container oder CI Tools – du findest fast immer eine fertige Lösung.
Flexible Dashboards: Du baust dir deine Dashboards so, wie du sie brauchst. Einfach per Drag and Drop, ganz ohne Code.
Leistungsfähige Alarme: Du wirst bei Anomalien sofort benachrichtigt und kannst reagieren, bevor der Nutzer überhaupt etwas merkt.
Gute Skalierbarkeit: Egal ob kleines Projekt oder riesige Infrastruktur – Datadog wächst mit deinen Anforderungen mit, ohne dass du dauernd die Architektur überdenken musst.
Nachteile [-]
Hohe Kosten: Wenn du viele Funktionen nutzt oder große Datenmengen verarbeitest, können die monatlichen Kosten schnell steigen.
Komplexe Preisstruktur: Es ist nicht immer leicht zu verstehen, welche Funktion wie viel kostet. Das macht die Budgetplanung schwieriger.
Anfangs überfordernd: Datadog bietet sehr viele Möglichkeiten – das kann dich am Anfang erschlagen, wenn du neu im Thema bist.
Abhängigkeit von Agenten: Für viele Funktionen musst du einen Agent installieren, was in streng regulierten Umgebungen problematisch sein kann.
Begrenzte Anpassbarkeit bei manchen Visualisierungen: Einige Nutzer berichten, dass bestimmte Diagrammtypen nicht so flexibel sind, wie sie es sich wünschen würden.
Funktionen & Bereiche [!]
Infrastructure Monitoring
Wenn du den Überblick über deine gesamte Infrastruktur behalten willst – egal ob in der Cloud, im Rechenzentrum oder hybrid –, dann ist der Infrastructure Monitoring Teil von Datadog für dich ein echtes Power-Tool. Du bekommst eine zentrale Sicht auf all deine Systeme, Server, Container, Dienste und Cloud-Ressourcen. Und das Beste: Alles läuft in Echtzeit und ist super visuell aufbereitet. So kannst du sofort erkennen, wenn etwas aus dem Ruder läuft.
Stell dir vor, du verwaltest eine komplexe Umgebung mit vielen unterschiedlichen Komponenten. Du willst wissen, wie es um die Auslastung deiner Server steht, wie viel Speicher genutzt wird, ob Dienste verfügbar sind oder ob irgendwo Bottlenecks entstehen. Genau hier setzt Datadog an. Du siehst alle relevanten Metriken auf einen Blick – übersichtlich, intuitiv und anpassbar. Du kannst dir eigene Dashboards bauen, die genau das zeigen, was für dich und dein Team wichtig ist.
Ein Highlight ist die automatische Erkennung deiner Infrastruktur. Sobald du den Datadog Agent installierst, beginnt das Tool, deine Hosts, Container und Dienste zu erfassen und zu visualisieren. Du musst nichts manuell konfigurieren. Innerhalb kürzester Zeit hast du eine Karte deiner Infrastruktur vor dir – mit Live-Daten, Gesundheitszuständen und Zusammenhängen zwischen einzelnen Komponenten. Du siehst zum Beispiel, ob ein Problem in der Datenbank auch andere Services beeinflusst, oder wo genau eine hohe CPU-Last herkommt.
Besonders hilfreich sind die intelligenten Alarme. Du kannst Schwellenwerte für jede beliebige Metrik definieren und wirst sofort benachrichtigt, wenn etwas aus dem Rahmen fällt. Und das nicht nur nach starren Regeln, sondern auch basierend auf Anomalien. Das bedeutet: Datadog lernt, was für dein System normal ist, und meldet sich, wenn ungewöhnliche Muster auftreten. So erkennst du Probleme, bevor sie eskalieren.
Ein weiterer Vorteil: Die Skalierbarkeit. Egal ob du ein kleines DevOps-Team oder ein globales Unternehmen bist – Infrastructure Monitoring wächst mit dir. Du kannst mit wenigen Hosts starten und problemlos auf tausende Systeme erweitern, ohne dass du deine Architektur überarbeiten musst. Und wenn du mehrere Teams hast, kannst du den Zugriff fein granulieren und genau festlegen, wer was sehen darf.
Datadog unterstützt alle gängigen Cloud-Anbieter wie AWS, Azure oder Google Cloud genauso wie klassische On-Prem-Systeme. Du kannst also gemischte Umgebungen problemlos integrieren. Und durch die über 600 fertigen Integrationen binden sich deine Tools oft mit wenigen Klicks an.
Application Performance Monitoring
Wenn du wirklich verstehen willst, wie deine Anwendungen im Innersten funktionieren und performen, dann ist der Application Performance Monitoring Teil von Datadog wie für dich gemacht. Er gibt dir tiefe Einblicke in den kompletten Lebenszyklus jeder einzelnen Anfrage, von der ersten Nutzeraktion bis zum letzten Datenbankaufruf – und das alles in Echtzeit. Du erkennst sofort, wo es hakt, was langsam ist oder wo Ressourcen unnötig verschwendet werden. So bringst du deine Anwendungen auf ein neues Level an Stabilität und Schnelligkeit.
Stell dir vor, deine Nutzer melden, dass eine Seite zu langsam lädt – aber niemand weiß, warum. Mit Datadog APM kannst du ganz genau nachvollziehen, wie die Anfrage durch deine Architektur fließt. Du siehst, welche Services beteiligt sind, wie lange einzelne Schritte dauern, ob Timeouts auftreten oder externe APIs bremsen. Diese sogenannte Tracing-Funktion zeigt dir die komplette Kette der Abhängigkeiten – übersichtlich und interaktiv. Du klickst dich einfach durch und erkennst sofort, wo du ansetzen musst.
Ein weiteres starkes Feature ist die automatische Instrumentierung. Du musst nicht jede Anwendung von Grund auf manuell anpassen. Für viele Sprachen wie Java, Python, Node, Ruby oder .NET gibt es fertige Bibliotheken, die du nur integrieren musst. Danach bekommst du detaillierte Metriken zu Latenz, Durchsatz, Fehlerquoten und Ressourcenauslastung – ohne aufwendiges Customizing.
Du kannst auch sogenannte Service Maps nutzen. Sie zeigen dir live, wie deine Services miteinander kommunizieren. Das hilft dir enorm bei der Fehlersuche, besonders in Microservice-Umgebungen. Wenn irgendwo ein Engpass oder ein Fehler entsteht, siehst du auf einen Blick, welche Systeme betroffen sind und wo du eingreifen solltest.
Ein weiteres Highlight ist das Zusammenspiel mit Log Management und Infrastructure Monitoring. Du kannst dir zu jedem Trace direkt die zugehörigen Logs und Hostmetriken anzeigen lassen. Das gibt dir eine ganzheitliche Sicht und spart dir wertvolle Zeit bei der Analyse. Du musst nicht mehr drei Tools öffnen, sondern bekommst alles aus einer Hand.
Alarme und Dashboards gehören natürlich auch zum Paket. Du kannst Schwellenwerte definieren, dir Trends anzeigen lassen oder gezielte Analysen fahren – zum Beispiel zur Auswirkung eines neuen Releases. Auch Features wie Error Tracking oder Continuous Profiler helfen dir, Bugs schneller zu finden und langfristige Performanceprobleme zu beseitigen.
Log Management
Wenn du in deinem Arbeitsalltag regelmäßig mit Logs zu tun hast und dir dabei schon mal der Kopf geraucht hat, dann wirst du den Log Management Teil von Datadog lieben. Du bekommst hier ein zentrales System, mit dem du alle Logs aus deinen Servern, Anwendungen, Containern und Cloud-Diensten an einem Ort sammeln, analysieren und visualisieren kannst. Das heißt: Schluss mit dem Chaos aus verteilten Logfiles, unterschiedlichen Formaten und endlosen Textsuchen – stattdessen bekommst du Klarheit, Struktur und Geschwindigkeit.
Sobald du den Datadog Agent eingerichtet oder deine Logquellen per API verbunden hast, fließen die Daten in Echtzeit ins System. Du kannst sofort loslegen. Egal ob es sich um klassische Serverlogs, Application Logs, Netzwerkdaten oder Sicherheitsereignisse handelt – Datadog verarbeitet sie zuverlässig und macht sie für dich durchsuchbar. Du musst also keine speziellen Tools mehr nutzen oder umständlich Skripte schreiben, um die Informationen zu bekommen, die du brauchst.
Was besonders praktisch ist: Du kannst dir eigene Log Dashboards erstellen und die Daten so aufbereiten, wie sie für dich Sinn ergeben. Du willst nur Fehler anzeigen lassen? Kein Problem. Du möchtest sehen, wie viele Anfragen innerhalb einer bestimmten Zeitspanne fehlgeschlagen sind? Mit wenigen Klicks hast du deine Visualisierung. Und wenn du regelmäßig bestimmte Suchmuster brauchst, kannst du dir diese als Filter oder Alarme speichern. So wirst du automatisch benachrichtigt, wenn bestimmte Logeinträge auftauchen – zum Beispiel ein unerwarteter Fehlercode oder ein Anmeldeversuch von einem ungewöhnlichen Standort.
Ein weiteres Highlight ist die automatische Parsing-Funktion. Datadog erkennt viele gängige Logformate automatisch und extrahiert wichtige Felder wie Zeitstempel, Statuscodes oder IP-Adressen. Dadurch kannst du nicht nur einfacher suchen, sondern auch gezielt auswerten und Korrelationen zu anderen Daten herstellen. Du kannst Logs zum Beispiel direkt mit Infrastrukturmetriken oder Traces aus dem APM Bereich verknüpfen. So erkennst du schneller, ob ein Fehler durch einen Infrastrukturfehler, ein schlechtes Deployment oder ein Netzwerkproblem verursacht wurde.
Auch beim Thema Skalierbarkeit brauchst du dir keine Sorgen zu machen. Egal ob du einige Tausend oder mehrere Millionen Logs pro Tag verarbeiten willst – Datadog kommt damit klar. Du kannst sogar einstellen, wie lange bestimmte Logs gespeichert werden sollen, damit du bei der Einhaltung von Compliance-Vorgaben flexibel bleibst.
Serverless Monitoring
Wenn du mit serverlosen Architekturen arbeitest – zum Beispiel mit AWS Lambda, Azure Functions oder Google Cloud Functions – dann weißt du, wie schwierig es sein kann, den Überblick über die Performance, Ausführung und Fehlerquellen deiner Funktionen zu behalten. Genau hier kommt der Serverless Monitoring Teil von Datadog ins Spiel. Er hilft dir dabei, deine gesamten serverlosen Anwendungen sichtbar zu machen und zu analysieren, als wären es ganz normale Server oder Container – nur eben ohne, dass du dich um die Infrastruktur kümmern musst.
Mit Datadog Serverless Monitoring bekommst du eine detaillierte Sicht auf jede einzelne Funktion. Du siehst zum Beispiel, wie oft eine Funktion aufgerufen wird, wie lange sie läuft, wie viel Speicher sie verbraucht und ob sie mit einem Fehler endet. Du erkennst auch, wenn bestimmte Funktionen ungewöhnlich lange brauchen oder besonders oft ausgelöst werden. Das gibt dir nicht nur ein besseres Verständnis für die Nutzung deiner serverlosen Architektur, sondern hilft dir auch, Engpässe und Kostentreiber frühzeitig zu erkennen.
Besonders stark ist Datadog, wenn du AWS Lambda verwendest. Du kannst deine Funktionen ganz einfach anbinden, ohne großen Konfigurationsaufwand. Datadog zeigt dir dann auf einen Blick alle wichtigen Kennzahlen, inklusive Cold Starts, Timeouts oder Fehlerraten. Du kannst genau nachvollziehen, welche Funktion bei welchem Event ausgelöst wurde, wie sie sich im Zeitverlauf entwickelt und ob sie mit anderen Services wie Datenbanken oder APIs zusammenhängt. Die visuelle Darstellung dieser Abhängigkeiten macht es dir leicht, selbst komplexe Zusammenhänge zu verstehen.
Ein echtes Highlight ist das Zusammenspiel mit Tracing und Log Management. Du kannst jeden einzelnen Funktionsaufruf als Trace darstellen und mit Logs und Infrastrukturmetriken verknüpfen. Wenn also zum Beispiel eine Lambda-Funktion fehlschlägt, siehst du sofort, was genau passiert ist, welche Parameter übergeben wurden und welcher Teil deines Systems betroffen war. Dadurch musst du im Fehlerfall nicht mehr aufwendig manuell nach der Ursache suchen – du hast sie direkt vor dir.
Auch für die Kostenkontrolle ist Serverless Monitoring super hilfreich. Du erkennst, welche Funktionen besonders häufig laufen oder viel Ressourcen verbrauchen und kannst entsprechend optimieren. In einer serverlosen Umgebung, wo du nach Aufrufen und Ausführungszeit zahlst, kann das einen echten Unterschied machen – nicht nur technisch, sondern auch wirtschaftlich.
Wenn du mehrere Umgebungen nutzt – zum Beispiel Entwicklung, Test und Produktion –, kannst du die Daten ganz einfach filtern und vergleichen. Du siehst sofort, ob sich eine neue Version deiner Funktion anders verhält als die alte. So erkennst du auch frühzeitig, ob ein Deployment negative Auswirkungen hat, und kannst schnell reagieren.
Error Tracking
Wenn du mit Anwendungen arbeitest, die ständig weiterentwickelt, deployed und genutzt werden, dann weißt du, dass Fehler einfach dazugehören. Was aber nicht dazugehört: ewig lange Debugging-Sessions, unklare Fehlermeldungen oder das Gefühl, Problemen immer nur hinterherzurennen. Genau hier kommt der Error Tracking Teil von Datadog ins Spiel – und der macht dir das Leben deutlich leichter.
Mit Error Tracking bekommst du ein zentrales Werkzeug, um Fehler in deinen Anwendungen nicht nur zu erkennen, sondern auch zu verstehen und gezielt zu beheben. Sobald du die Integration aktivierst, sammelt Datadog automatisch alle auftretenden Fehler aus deinem Frontend oder Backend, ordnet sie logisch zu und gruppiert sie übersichtlich. Du siehst sofort, welche Fehler am häufigsten auftreten, wie viele Nutzer betroffen sind und wann genau sie das erste und letzte Mal passiert sind.
Besonders hilfreich ist dabei die Gruppierung nach Error Type, Stacktrace und betroffener Komponente. Das heißt für dich: Kein Wirrwarr mehr aus hunderten Einzelmeldungen – stattdessen bekommst du eine klare Liste der Fehler, sortiert nach Relevanz. Du kannst dir für jeden Fehler den vollständigen Kontext anzeigen lassen, inklusive betroffener Datei, Codezeile, Umgebung und sogar Nutzeraktion, die zum Fehler geführt hat. Das hilft dir enorm dabei, nicht nur Symptome zu beheben, sondern echte Ursachen zu finden.
Ein weiteres starkes Feature: Du kannst bestimmte Fehler ignorieren, stummschalten oder als behoben markieren. Das hilft dir, den Fokus auf die wirklich kritischen Probleme zu legen. Wenn ein Fehler erneut auftritt, obwohl du ihn schon als gelöst markiert hast, wirst du automatisch benachrichtigt – das gibt dir Sicherheit beim Monitoring nach Deployments.
Error Tracking funktioniert natürlich nahtlos mit anderen Bereichen von Datadog zusammen. Du kannst Fehler direkt mit Logs, Traces und Infrastrukturmetriken verknüpfen. Wenn ein Frontend-Fehler auftaucht, siehst du zum Beispiel auch gleich, ob im Backend zur gleichen Zeit ein Timeout passiert ist. Diese Verknüpfung spart dir Zeit und gibt dir ein vollständiges Bild der Fehlerkette – vom Nutzer bis zum Server.
Außerdem kannst du gezielte Alarme einrichten: Lass dich informieren, wenn ein bestimmter Fehler plötzlich häufiger auftritt oder ein neuer Fehler zum ersten Mal gemeldet wird. So bleibst du immer einen Schritt voraus, anstatt erst zu reagieren, wenn der Nutzer sich meldet.
Wichtige Fragen [?]
Wenn du mit Datadog arbeitest, ist es wichtig, dass du verstehst, wie sich die Kosten zusammensetzen. Beim Log Management gibt es zwei wesentliche Begriffe: Log Ingestion und Indexed Logs. Log Ingestion meint die gesamte Menge an Logs, die du in Datadog einspeist. Dafür zahlst du pro aufgenommenem Gigabyte, unabhängig davon, ob du die Logs speicherst oder nicht. Indexed Logs sind die Daten, die du aktiv zum Durchsuchen und Analysieren auswählst – und dafür zahlst du zusätzlich, je nach Volumen und Aufbewahrungsdauer. Wenn du also nur einen Teil deiner Logs indexierst und den Rest als Archive ablegst, kannst du ordentlich sparen. Was die Hosts angeht: Solange ein Host aktiv Daten sendet oder ein Agent installiert ist, wird er als aktiv gezählt – selbst wenn du ihn gerade nicht nutzt. Um Kosten zu kontrollieren, solltest du also genau überlegen, welche Logs du wirklich analysieren willst und welche Hosts dauerhaft aktiv sein müssen.
Wenn du neu in Datadog bist, können die verschiedenen Abfragefunktionen anfangs ganz schön komplex wirken. Begriffe wie „rate“, „avg by“ oder „rollup“ wirken erst mal technisch und trocken – aber sobald du verstanden hast, was dahintersteckt, öffnen sie dir ganz neue Möglichkeiten. Zum Beispiel nutzt du „rate“ immer dann, wenn du wissen willst, wie sich ein Wert über die Zeit verändert – zum Beispiel Anfragen pro Sekunde. Mit „rollup“ kannst du Daten über ein bestimmtes Zeitfenster zusammenfassen, um zum Beispiel Ausreißer zu glätten. Der Einstieg klappt am besten, wenn du mit einer einfachen Metrik wie der CPU-Auslastung startest und verschiedene Funktionen ausprobierst. Du wirst merken: Je öfter du deine eigenen Dashboards und Alarme baust, desto besser verstehst du, wie Datadog denkt – und wie du das System für dich arbeiten lässt.
Wenn du komplexe Zusammenhänge zwischen Logeinträgen überwachen willst, etwa dass zwei bestimmte Ereignisse kurz hintereinander auftreten, musst du ein wenig kreativ werden. Datadog bietet dir sogenannte Composite Monitore, mit denen du mehrere einfache Monitore logisch verknüpfen kannst. Du würdest also zwei separate Log-Monitore einrichten – einer reagiert auf „card declined“, der andere auf „card expired“. Dann erstellst du einen dritten Monitor, der nur Alarm schlägt, wenn beide vorherigen Monitore gleichzeitig oder innerhalb eines bestimmten Zeitraums ausgelöst wurden. So kannst du genau steuern, wann du benachrichtigt wirst. Noch flexibler wird es, wenn du dir eigene Metriken aus Logs generierst, die bestimmte Ereigniskombinationen erfassen – aber das braucht etwas mehr Setup. Wenn du dir einmal eine gute Struktur baust, bekommst du damit ein sehr feines Frühwarnsystem für kritische Fehlerketten.
Gesuchte Begriffe
Datadog, Aktie, Unternehmen, Ddog, Analysen, Kurs, Indizes, Überwachung, Anleihen, Vergleich, Kennzahlen, Branche, Dax, Wkn, Aktienkurs, Microsoft, Etf, Derivate, Dividenden, Rohstoffe, Software, Watchlist, Mdax, Chart, Isin, Börsen, Realtimekurse, Fonds, Tecdax, Mrd, Gewinn, Nasdaq, Optionsscheine, Top, Karriere, Usd, Realtime, Kryptowährungen, News, Orderbuch, Broker, Depot, Wertpapier, Aktionär, Sdax, Zertifikate, Technologies, Devisen, Sparplan, Neuemissionen, Data, Musterdepot, Flop, Krypto, Umsatz, Kgv, Devops, Leistung, Mio, Nikkei











