Lokale, door een instructeur geleide live Big Data-trainingscursussen beginnen met een inleiding tot elementaire concepten van Big Data en gaan vervolgens verder met de programmeertalen en methodologieën die worden gebruikt om gegevensanalyse uit te voeren. Tools en infrastructuur voor het mogelijk maken van Big Data-opslag, gedistribueerde verwerking en schaalbaarheid worden besproken, vergeleken en geïmplementeerd in demo-oefensessies. Big Data-training is beschikbaar als 'live training op afstand' of 'live training op locatie'. Online live training (ook bekend als "live training op afstand") wordt uitgevoerd via een interactieve, externe desktop . Live training op locatie kan lokaal worden uitgevoerd op het terrein van de klant in Brugge of in NobleProg bedrijfstrainingscentra in Brugge. NobleProg -- Uw lokale trainingsaanbieder
Brugge
NH Hotel Brugge, Boeveriestraat 2, Brugge, Belgie, 8000
Bruges
Brugge werd een centrale haven, een commercieel en financieel centrum in middeleeuws Europa, dat de landen van de Noordzee en de Oostzee met de Middellandse Zee verbond. Rijke kooplieden uit Brugge dreven handel met die uit heel Europa. De eerste beurs in de geschiedenis ontstond in Brugge in de 13e eeuw. In de 15e eeuw was het het belangrijkste financiële centrum van Europa. Deze economische bloei leidt ook tot een culturele en artistieke bloei die een rijk erfgoed heeft nagelaten. Het was het belangrijkste centrum voor de Vlaamse primitieve schilders, die een revolutie teweegbrachten in de westerse schilderkunst. Het is sinds het jaar 2000 lid van de Organisatie van Werelderfgoedsteden. De stad heeft zelfs de eer om drie keer op de Werelderfgoedlijst van UNESCO te staan. Om zijn historische centrum, om zijn begijnhof dat deel uitmaakt van de Vlaamse Begijnhoven en om zijn belfort dat behoort tot de Belforten van België en Frankrijk. Daarnaast staat het ook op de lijst van immaterieel cultureel erfgoed van de mensheid door UNESCO vanwege de processie van het Heilig Bloed.
De dichtstbijzijnde luchthaven bij het trainingscentrum
INTERNATIONALE LUCHTHAVEN OOSTENDE-BRUGE
Dichtstbijzijnde treinstation naar het trainingscentrum
Station Brugge
De dichtstbijzijnde parkeerplaats bij het trainingscentrum
Deelnemers die deze door een instructeur geleide, live training in Brugge voltooien, krijgen een praktisch, real-world begrip van Big Data en de bijbehorende technologieën, methodologieën en hulpmiddelen.
Deelnemers krijgen de kans om deze kennis in de praktijk te brengen door middel van praktische oefeningen. Groepsinteractie en feedback van de instructeur vormen een belangrijk onderdeel van de klas.
De cursus begint met een inleiding tot elementaire concepten van Big Data en gaat vervolgens verder met de programmeertalen en methodologieën die worden gebruikt om uit te voeren Data Analysis. Ten slotte bespreken we de tools en infrastructuur die Big Data opslag, gedistribueerde verwerking en Scalabiliteit mogelijk maken.
Deze door een instructeur geleide, live training in Brugge (online of op locatie) is bedoeld voor dataprofessionals op gevorderd niveau die dataverwerkingsworkflows willen optimaliseren, data-integriteit willen waarborgen en robuuste data lakehouse-oplossingen willen implementeren die de complexiteit van moderne big data-applicaties aankunnen.
Aan het einde van deze training zijn de deelnemers in staat om:
Krijg een diepgaand inzicht in de architectuur van Iceberg, inclusief metadatabeheer en bestandslay-out.
Configureer Iceberg voor optimale prestaties in verschillende omgevingen en integreer het met meerdere gegevensverwerkingsengines.
Beheer grootschalige Iceberg-tabellen, voer complexe schemawijzigingen uit en behandel de evolutie van partities.
Beheers technieken om de queryprestaties en de efficiëntie van gegevensscans voor grote datasets te optimaliseren.
Implementeer mechanismen om gegevensconsistentie te waarborgen, transactiegaranties te beheren en storingen in gedistribueerde omgevingen af te handelen.
Deze live training onder leiding van een instructeur in Brugge (online of op locatie) is bedoeld voor dataprofessionals op beginnersniveau die de kennis en vaardigheden willen verwerven die nodig zijn om Apache Iceberg effectief te gebruiken voor het beheren van grootschalige datasets, het waarborgen van data-integriteit en het optimaliseren van dataverwerkingsworkflows.
Aan het einde van deze training zijn de deelnemers in staat om:
Krijg een grondig inzicht in de architectuur, functies en voordelen van Apache Iceberg.
Meer informatie over tabelindelingen, partitionering, schema-evolutie en mogelijkheden voor tijdreizen.
Installeer en configureer Apache Iceberg in verschillende omgevingen.
Maak, beheer en manipuleer ijsbergtabellen.
Inzicht in het proces van het migreren van gegevens van andere tabelindelingen naar Iceberg.
Deze live training in Brugge (online of op locatie) onder leiding van een instructeur is bedoeld voor IT-professionals van gemiddeld niveau die hun vaardigheden op het gebied van data-architectuur, governance, cloud computing en big data-technologieën willen verbeteren om grote datasets effectief te beheren en te analyseren voor datamigratie binnen hun organisaties.
Aan het einde van deze training zijn de deelnemers in staat om:
Begrijp de fundamentele concepten en componenten van verschillende data-architecturen.
Krijg een uitgebreid inzicht in de principes van gegevensbeheer en het belang ervan in regelgevingsomgevingen.
Implementeer en beheer kaders voor gegevensbeheer, zoals Dama en Togaf.
Maak gebruik van cloudplatforms voor efficiënte gegevensopslag, -verwerking en -beheer.
Deze live training onder leiding van een instructeur in Brugge (online of op locatie) is bedoeld voor data-engineers van gemiddeld niveau die willen leren hoe ze Azure Data Lake Storage Gen2 kunnen gebruiken voor effectieve oplossingen voor data-analyse.
Aan het einde van deze training zijn de deelnemers in staat om:
Begrijp de architectuur en de belangrijkste functies van Azure Data Lake Storage Gen2.
Optimaliseer gegevensopslag en -toegang op basis van kosten en prestaties.
Integreer Azure Data Lake Storage Gen2 met andere Azure services voor analyse en gegevensverwerking.
Ontwikkel oplossingen met behulp van de Azure Data Lake Storage Gen2 API.
Los veelvoorkomende problemen op en optimaliseer opslagstrategieën.
Deze door een instructeur geleide, live training (ter plaatse of op afstand) is gericht op IT-professionals met een gemiddeld niveau die een uitgebreid begrip willen hebben van IBM DataStage vanuit zowel een administratief als een ontwikkelingsperspectief, zodat ze dit kunnen beheren en gebruiken. effectief in te zetten op hun respectievelijke werkplekken.
Aan het einde van deze training kunnen deelnemers:
Begrijp de kernconcepten van DataStage.
Leer hoe u DataStage-omgevingen effectief installeert, configureert en beheert.
Maak verbinding met verschillende gegevensbronnen en extraheer gegevens efficiënt uit databases, platte bestanden en externe bronnen.
Implementeer effectieve technieken voor het laden van gegevens.
Dit door een instructeur geleide live training in Brugge (online of op locatie) is gericht op middelmatige big data professionals die Apache Kylin willen gebruiken om real-time gegevenswarehouses te bouwen en multidimensionale analyses uit te voeren op grote datasets.Na deze training zullen de deelnemers in staat zijn:
Apache Kylin in te stellen en te configureren met real-time streaming datasources.
OLAP-cubes ontwerpen en bouwen voor zowel batch- als streamingdata.
Gecompliceerde query's uitvoeren met subsecondaire latentie via Kylin's SQL interface.
Kylin integreren met BI-tools voor interactieve gegevensvisualisatie.
De prestaties optimaliseren en de resources effectief beheren in Kylin.
Deelnemers die deze door een instructeur geleide, live training voltooien in Brugge zullen een praktisch, realistisch inzicht verwerven in Big Data en de gerelateerde technologieën, methodologieën en hulpmiddelen.
Deelnemers krijgen de kans om deze kennis in de praktijk te brengen door middel van praktische oefeningen. Groepsinteractie en feedback van de instructeur vormen een belangrijk onderdeel van de les.
De cursus begint met een inleiding tot de elementaire concepten van Big Data en gaat vervolgens verder met de programmeertalen en methodologieën die worden gebruikt om data-analyse uit te voeren. Ten slotte bespreken we de tools en infrastructuur die Big Data-opslag, gedistribueerde verwerking en Scalamogelijkheden mogelijk maken.
In deze door een instructeur geleide, live training in Brugge, leren deelnemers hoe ze Python en Spark samen kunnen gebruiken om big data te analyseren terwijl ze werken aan praktische oefeningen.
Aan het einde van deze training zijn de deelnemers in staat om:
Leer hoe u Spark kunt gebruiken met Python om Big Data te analyseren.
Werk aan oefeningen die gevallen uit de echte wereld nabootsen.
Gebruik verschillende tools en technieken voor big data-analyse met behulp van PySpark.
This instructor-led, live training in Brugge (online or onsite) is aimed at intermediate-level database administrators, developers, and analysts who wish to master advanced SQL functionalities for complex data operations and database management.
By the end of this training, participants will be able to:
Perform advanced querying techniques using unions, subqueries, and complex joins.
Add, update, and delete data, tables, views, and indexes with precision.
Ensure data integrity through transactions and manipulate database structures.
Create and manage databases efficiently for robust data storage and retrieval.
Dremio is een open-source "self-service data platform" die de zoekopdracht van verschillende soorten gegevensbronnen versnelt. Dremio wordt geïntegreerd met relatieve databases, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch, en andere gegevensbronnen. Het ondersteunt SQL en biedt een web-UI voor bouwvragen.
In deze instructeur geleide, live training leren de deelnemers hoe te installeren, configureren en gebruiken Dremio als een verenigende laag voor data-analyse-tools en de onderliggende data-opslagruimten.
Aan het einde van deze training zullen de deelnemers in staat zijn:
Installeer en installeer Dremio
Uitvoeren van vragen tegen meerdere gegevensbronnen, ongeacht locatie, grootte of structuur
Integreren Dremio met BI en gegevensbronnen zoals Tableau en Elasticsearch
Het publiek
Data wetenschappers
Business De analisten
Data ingenieurs
Format van de cursus
Deel lezing, deel discussie, oefeningen en zware praktijken
Nootjes
Om een aangepaste training voor deze cursus te vragen, neem dan contact met ons op om te organiseren.
Deze live training onder leiding van een instructeur in Brugge (online of ter plaatse) is bedoeld voor databaseprofessionals op gemiddeld niveau die hun vaardigheden op het gebied van Oracle SQL ontwikkeling en beheer willen verbeteren.
Aan het einde van deze training zijn de deelnemers in staat om:
Bouw en optimaliseer complexe SQL query's.
Beheer databases efficiënt met behulp van Oracle SQL tools.
Pas best practices toe bij de ontwikkeling en het onderhoud van databases.
Beheer gebruikerstoegang en databasebeveiliging in een Oracle-omgeving.
Apache Accumulo is een gesorteerde, gedistribueerde sleutel-/waardeopslag die robuuste, schaalbare gegevensopslag en -opvraging biedt. Het is gebaseerd op het ontwerp van Google's BigTable en wordt aangedreven door Apache Hadoop, Apache Zookeeper en Apache Thrift.
Deze live cursussen onder leiding van een instructeur behandelen de werkingsprincipes achter Accumulo en begeleiden deelnemers bij de ontwikkeling van een voorbeeldtoepassing op Apache Accumulo.
Vorm van de cursus
Deels lezing, deels discussie, hands-on ontwikkeling en implementatie, af en toe tests om het begrip te peilen
Deze live training onder leiding van een instructeur in Brugge (online of ter plaatse) is bedoeld voor applicatieontwikkelaars en ingenieurs die meer geavanceerde toepassingen van de Teradata database onder de knie willen krijgen.
Aan het einde van deze training zijn de deelnemers in staat om:
Beheer Teradata ruimte.
Bescherm en distribueer gegevens in Teradata.
Lees Plan uitleggen.
Verbeter SQL vaardigheid.
Gebruik de belangrijkste hulpprogramma's van Teradata.
Deze cursus is bedoeld voor ontwikkelaars en datawetenschappers die AI willen begrijpen en implementeren in hun toepassingen. Er wordt speciale aandacht besteed aan data-analyse, gedistribueerde kunstmatige intelligentie en natuurlijke taalverwerking.
Amazon Redshift is een cloudgebaseerde datawarehouse-service op petabyte-schaal in AWS.
In deze live training onder leiding van een instructeur leren deelnemers de basisprincipes van Amazon Redshift.
Aan het einde van deze training zijn de deelnemers in staat om:
Installeren en configureren Amazon Redshift
Gegevens laden, configureren, implementeren, opvragen en visualiseren met Amazon Redshift
Audiëntie
Ontwikkelaars
IT-professionals
Vorm van de cursus
Deels lezing, deels discussie, oefeningen en zware hands-on oefening
Notitie
Om een training op maat voor deze cursus aan te vragen, neem dan contact met ons op om een afspraak te maken.
Technologische vooruitgang en de toenemende hoeveelheid informatie transformeren de manier waarop zaken worden gedaan in veel sectoren, waaronder de overheid. GoDe snelheid waarmee gegevens worden gegenereerd en digitaal wordt gearchiveerd, neemt toe als gevolg van de snelle groei van mobiele apparaten en applicaties, slimme sensoren en apparaten, cloud computing-oplossingen en op de burger gerichte portalen. Naarmate digitale informatie zich uitbreidt en complexer wordt, worden informatiebeheer, -verwerking, -opslag, -beveiliging en -dispositie ook complexer. Nieuwe tools voor vastleggen, zoeken, ontdekken en analyseren helpen organisaties inzichten te verkrijgen uit hun ongestructureerde gegevens. De overheidsmarkt bevindt zich op een omslagpunt en realiseert zich dat informatie een strategisch bezit is, en dat de overheid zowel gestructureerde als ongestructureerde informatie moet beschermen, benutten en analyseren om de missievereisten beter te kunnen bedienen en vervullen. Terwijl overheidsleiders ernaar streven datagestuurde organisaties te ontwikkelen om hun missie succesvol te volbrengen, leggen zij de basis voor het correleren van afhankelijkheden tussen gebeurtenissen, mensen, processen en informatie.
Hoogwaardige overheidsoplossingen zullen worden gecreëerd uit een mix van de meest ontwrichtende technologieën:
Mobiele apparaten en applicaties Clouddiensten Sociale bedrijfstechnologieën en netwerken Big Data en analyses
IDC voorspelt dat de IT-industrie in 2020 een waarde van $5 biljoen zal bereiken, ongeveer $1,7 biljoen meer dan nu, en dat 80% van de groei van de industrie zal worden aangedreven door deze derdeplatformtechnologieën. Op de lange termijn zullen deze technologieën cruciale instrumenten zijn om met de complexiteit van de toegenomen digitale informatie om te gaan. Big Data is een van de intelligente industriële oplossingen en stelt de overheid in staat betere beslissingen te nemen door actie te ondernemen op basis van patronen die aan het licht komen door het analyseren van grote hoeveelheden gegevens – gerelateerd en niet-gerelateerd, gestructureerd en ongestructureerd.
Maar om deze prestaties te verwezenlijken is veel meer nodig dan alleen maar het verzamelen van enorme hoeveelheden data. “Het begrijpen van deze hoeveelheden Big Data vereist geavanceerde tools en technologieën die nuttige kennis kunnen analyseren en extraheren uit enorme en diverse informatiestromen”, aldus Tom Kalil en Fen Zhao van het Witte Huis Office of Science and Technology Policy schreef in een bericht op de OSTP Blog.
Het Witte Huis zette een stap in de richting van het helpen van instanties deze technologieën te vinden toen het in 2012 het National Big Data Research and Development Initiative oprichtte. Het initiatief omvatte meer dan $200 miljoen om het meeste te halen uit de explosie van Big Data en de tools die nodig zijn om analyseer het.
De uitdagingen die Big Data met zich meebrengt zijn bijna net zo ontmoedigend als de belofte ervan bemoedigend is. Gegevens efficiënt opslaan is een van deze uitdagingen. Zoals altijd zijn de budgetten krap, dus moeten bureaus de opslagprijs per megabyte minimaliseren en de gegevens gemakkelijk toegankelijk houden, zodat gebruikers deze kunnen verkrijgen wanneer zij dat willen en hoe zij die nodig hebben. Het maken van back-ups van enorme hoeveelheden gegevens vergroot de uitdaging.
Een andere grote uitdaging is het effectief analyseren van de gegevens. Veel bureaus maken gebruik van commerciële tools waarmee ze de bergen aan gegevens kunnen doorzoeken en trends kunnen ontdekken die hen kunnen helpen efficiënter te werken. (Uit een recent onderzoek van MeriTalk is gebleken dat federale IT-managers denken dat Big Data bureaus kan helpen meer dan 500 miljard dollar te besparen en tegelijkertijd de missiedoelstellingen te verwezenlijken.)
Met op maat ontwikkelde Big Data tools kunnen agentschappen ook tegemoetkomen aan de noodzaak om hun gegevens te analyseren. De Computational Data Analytics Group van het Oak Ridge National Laboratory heeft bijvoorbeeld zijn Piranha-data-analysesysteem beschikbaar gesteld aan andere instanties. Het systeem heeft medische onderzoekers geholpen een link te vinden die artsen kan waarschuwen voor aorta-aneurysmata voordat deze toeslaan. Het wordt ook gebruikt voor meer alledaagse taken, zoals het doorzoeken van cv's om sollicitanten in contact te brengen met personeelsmanagers.
Apache Beam is een open source, uniform programmeermodel voor het definiëren en uitvoeren van parallelle gegevensverwerkingspijplijnen. De kracht ligt in de mogelijkheid om zowel batch- als streaming-pijplijnen uit te voeren, waarbij de uitvoering wordt uitgevoerd door een van de ondersteunde gedistribueerde verwerkingsback-ends van Beam: Apache Apex, Apache Flink, Apache Spark en Google Cloud Dataflow. Apache Beam is handig voor ETL-taken (Extract, Transform en Load), zoals het verplaatsen van gegevens tussen verschillende opslagmedia en gegevensbronnen, het transformeren van gegevens naar een meer wenselijk formaat en het laden van gegevens op een nieuw systeem.
In deze live training onder leiding van een instructeur (op locatie of op afstand) leren deelnemers hoe ze de Apache Beam SDK's kunnen implementeren in een Java of Python applicatie die een gegevensverwerkingspijplijn definieert voor het opsplitsen van een grote dataset in kleinere brokken voor onafhankelijke, parallelle verwerking.
Aan het einde van deze training zijn de deelnemers in staat om:
Installeer en configureer Apache Beam.
Gebruik een enkel programmeermodel om zowel batch- als streamverwerking uit te voeren vanuit hun Java of Python toepassing.
Voer pijplijnen uit in meerdere omgevingen.
Vorm van de cursus
Deels lezing, deels discussie, oefeningen en zware hands-on oefening
Notitie
Deze cursus zal in de toekomst beschikbaar zijn Scala. Neem contact met ons op om dit te regelen.
Deze klassikale trainingssessie onderzoekt Big Data. Afgevaardigden krijgen computergebaseerde voorbeelden en casestudy-oefeningen die ze kunnen uitvoeren met relevante big data-tools
Dag 1 - biedt een overzicht op hoog niveau van essentiële Big Data onderwerpgebieden. De module is verdeeld in een reeks secties, die elk vergezeld gaan van een praktische oefening.
Dag 2 - onderzoekt een reeks onderwerpen die betrekking hebben op analysepraktijken en hulpmiddelen voor Big Data omgevingen. Het gaat niet over implementatie- of programmadetails, maar houdt in plaats daarvan dekking op een conceptueel niveau, gericht op onderwerpen die deelnemers in staat stellen een uitgebreid begrip te ontwikkelen van de gemeenschappelijke analysefuncties en functies die door Big Data oplossingen worden aangeboden.
Dag 3 - biedt een overzicht van de fundamentele en essentiële onderwerpgebieden met betrekking tot de platformarchitectuur voor Big Data oplossingen. Het omvat Big Data mechanismen die nodig zijn voor de ontwikkeling van een Big Data oplossingsplatform en architecturale opties voor het samenstellen van een gegevensverwerkingsplatform. Er worden ook algemene scenario's gepresenteerd om een basiskennis te geven van hoe een Big Data oplossingsplatform in het algemeen wordt gebruikt.
Dag 4 - bouwt voort op dag 3 door geavanceerde onderwerpen te verkennen die betrekking hebben op de platformarchitectuur voor Big Data oplossingen. In het bijzonder worden verschillende architecturale lagen die deel uitmaken van het Big Data oplossingsplatform geïntroduceerd en besproken, waaronder gegevensbronnen, gegevensinvoer, gegevensopslag, gegevensverwerking en beveiliging.
Dag 5 - behandelt een aantal oefeningen en problemen die zijn ontworpen om het vermogen van de afgevaardigden om kennis van onderwerpen die op dag 3 en 4 zijn behandeld toe te passen, te testen.
In deze instructeursgeleide, live training in Brugge, leren de deelnemers de mindset waarmee ze Big Data technologieën kunnen benaderen, de impact op bestaande processen en beleidslijnen kunnen evalueren, en deze technologieën kunnen implementeren om criminële activiteiten te identificeren en criminaliteit te voorkomen. Case studies van handhavingsorganisaties over de hele wereld zullen worden onderzocht om inzichten te krijgen in hun adoptiebenaderingen, uitdagingen en resultaten.Aan het einde van deze training zullen de deelnemers in staat zijn om:
Big Data technologie combineren met traditionele processen voor gegevensverzameling om een verhaal samen te voegen tijdens een onderzoek.
Industriële big data-opslag- en verwerkingsoplossingen implementeren voor data-analyse.
Een voorstel voor te bereiden voor de adoptie van de meest geschikte tools en processen om een datagestuurde aanpak van strafrechtelijk onderzoek mogelijk te maken.
Big Data is een term die verwijst naar oplossingen die zijn bedoeld voor het opslaan en verwerken van grote gegevenssets. Go eerste instantie ontwikkeld door Go ogle, hebben deze Big Data oplossingen andere vergelijkbare projecten ontwikkeld en geïnspireerd, waarvan vele beschikbaar zijn als open-source. R is een populaire programmeertaal in de financiële sector.
Wanneer traditionele opslagtechnologieën niet omgaan met de hoeveelheid gegevens die u moet opslaan, zijn er honderden alternatieven. Deze cursus probeert de deelnemers te begeleiden wat alternatieven zijn voor het opslaan en analyseren van Big Data en wat hun voor- en nadelen zijn.
Deze cursus is vooral gericht op discussie en presentatie van oplossingen, hoewel praktische oefeningen op aanvraag beschikbaar zijn.
Deze instructeur-geleide, live training (ter plaatse of op afstand) is gericht op ingenieurs die Confluent (een distributie van Kafka) willen gebruiken om een realtime gegevensverwerkingsplatform voor hun toepassingen te bouwen en te beheren.
Aan het einde van deze training kunnen deelnemers:
Installeer en configureer Confluent Platform.
Gebruik de beheertools en -services van Confluent om Kafka gemakkelijker uit te voeren.
Bewaar en verwerk inkomende stroomgegevens.
Optimaliseer en beheer Kafka-clusters.
Veilige datastromen.
Indeling van de cursus
Interactieve lezing en discussie.
Veel oefeningen en oefenen.
Praktische implementatie in een live-labomgeving.
Opties voor cursusaanpassing
Deze cursus is gebaseerd op de open source-versie van Confluent: Confluent Open Source.
Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
Publiek
Als u de gegevens waartoe u toegang heeft, wilt begrijpen of ongestructureerde gegevens op het internet wilt analyseren (zoals Twitter, Linked in, enz ...), is deze cursus iets voor u.
Het is vooral bedoeld voor besluitvormers en mensen die moeten kiezen welke gegevens het verzamelen waard zijn en wat het analyseren waard is.
Het is niet gericht op mensen die de oplossing configureren, die mensen zullen echter profiteren van het grote geheel.
Bezorgingsmodus
Tijdens de cursus krijgen de deelnemers werkvoorbeelden van voornamelijk open source-technologieën.
Korte lezingen worden gevolgd door een presentatie en eenvoudige oefeningen door de deelnemers
Gebruikte inhoud en software
Alle gebruikte software wordt elke keer dat de cursus wordt uitgevoerd bijgewerkt, dus we controleren de nieuwste versies mogelijk.
Het omvat het proces van het verkrijgen, formatteren, verwerken en analyseren van de gegevens, om uit te leggen hoe het besluitvormingsproces kan worden geautomatiseerd met machine learning.
In deze live training onder leiding van een instructeur in Brugge leren deelnemers hoe ze een Data Vault kunnen bouwen.
Aan het einde van deze training zijn de deelnemers in staat om:
Begrijp de architectuur- en ontwerpconcepten achter Data Vault 2.0 en de interactie met Big Data, NoSQL en AI.
Gebruik technieken voor het opslaan van gegevens om controles, traceringen en inspecties van historische gegevens in een datawarehouse mogelijk te maken.
Ontwikkel een consistent en herhaalbaar ETL-proces (Extract, Transform, Load).
Bouw en implementeer zeer schaalbare en herhaalbare magazijnen.
Deze live training onder leiding van een instructeur in Brugge (online of ter plaatse) is bedoeld voor architecten, ontwikkelaars en beheerders die Denodo Platform willen gebruiken om gegevensbeheer te optimaliseren en te versnellen door middel van gegevensvirtualisatie.
Aan het einde van deze training zijn de deelnemers in staat om:
Installeer en configureer Denodo Platform.
Begrijp de functies en architectuur van Denodo Platform.
Krijg inzicht in de belangrijkste concepten, voordelen en gebruiksscenario's voor gegevensvirtualisatie.
Meer informatie over het configureren en beheren van de Denodo Platform-server.
Implementeer gegevensbeveiliging, gebruikerstoegang en serviceverificatie.
Pas de tools en technieken toe voor operationele monitoring en prestatie-optimalisatie.
Apache Druid is een open-source, kolomgeoriënteerde, gedistribueerde gegevensopslag geschreven in Java . Het is ontworpen om snel enorme hoeveelheden gebeurtenisgegevens op te nemen en OLAP-query's met lage latentie op die gegevens uit te voeren. Druid wordt vaak gebruikt in business intelligence-toepassingen om grote hoeveelheden realtime en historische gegevens te analyseren. Het is ook zeer geschikt voor het aansturen van snelle, interactieve, analytische dashboards voor eindgebruikers. Druid wordt gebruikt door bedrijven zoals Alibaba, Airbnb, Cisco , eBay, Netflix, Paypal en Yahoo.
In deze door een instructeur geleide live cursus verkennen we enkele van de beperkingen van datawarehouse-oplossingen en bespreken we hoe Druid deze technologieën kan aanvullen om een flexibele en schaalbare streaming analytics-stack te vormen. We nemen vele voorbeelden door en bieden deelnemers de kans om op druïden gebaseerde oplossingen in een laboratoriumomgeving te implementeren en te testen.
Indeling van de cursus
Deelcollege, deelbespreking, zware praktijkoefeningen, incidentele testen om begrip te peilen
Big data zijn datasets die zo omvangrijk en complex zijn dat traditionele applicatiesoftware voor gegevensverwerking onvoldoende is om hiermee om te gaan. Big data-uitdagingen zijn onder meer het vastleggen van gegevens, gegevensopslag, gegevensanalyse, zoeken, delen, overdragen, visualiseren, opvragen, bijwerken en informatieprivacy.
Deze live training onder leiding van een instructeur in Brugge (online of ter plaatse) introduceert de principes en benaderingen achter gedistribueerde stream- en batchgegevensverwerking, en begeleidt deelnemers bij het maken van een real-time toepassing voor gegevensstreaming in Apache Flink.
Aan het einde van deze training zijn de deelnemers in staat om:
Zet een omgeving op voor het ontwikkelen van toepassingen voor data-analyse.
Begrijp hoe de grafische verwerkingsbibliotheek van Apache Flink (Gelly) werkt.
Verpak, voer uit en bewaak op Fusen gebaseerde, fouttolerante toepassingen voor gegevensstreaming.
Beheer diverse workloads.
Voer geavanceerde analyses uit.
Stel een Flink-cluster met meerdere knooppunten in.
Meet en optimaliseer prestaties.
Integreer Flink met verschillende Big Data systemen.
Vergelijk de mogelijkheden van Flink met die van andere frameworks voor de verwerking van big data.
In deze door een instructeur geleide, live training in Brugge, leren deelnemers over het technologieaanbod en de implementatiebenaderingen voor het verwerken van grafiekgegevens. Het doel is om objecten uit de echte wereld, hun kenmerken en relaties te identificeren, deze relaties vervolgens te modelleren en ze als gegevens te verwerken met behulp van een Graph Computing (ook bekend als Graph Analytics) benadering. We beginnen met een breed overzicht en beperken ons tot specifieke tools terwijl we een reeks casestudy's, hands-on oefeningen en live implementaties doorlopen.
Aan het einde van deze training zijn de deelnemers in staat om:
Begrijp hoe grafiekgegevens worden bewaard en doorkruist.
Selecteer het beste framework voor een bepaalde taak (van graph databases tot batch processing frameworks).
Implementeer Hadoop, Spark, GraphX en Pregel om grafiekberekeningen op veel machines parallel uit te voeren.
Bekijk real-world big data-problemen in termen van grafieken, processen en traversals.
Deze door een instructeur geleide, live training (op locatie of op afstand) is gericht op beheerders die business intelligence- en datawarehousing-oplossingen willen opzetten Greenplum Database.
Aan het einde van deze training kunnen deelnemers:
Pak verwerkingsbehoeften aan met Greenplum.
Voer ETL-bewerkingen uit voor gegevensverwerking.
Maak gebruik van bestaande infrastructuren voor queryverwerking.
Deze live training onder leiding van een instructeur in Brugge (online of ter plaatse) introduceert Hortonworks Data Platform (HDP) en leidt deelnemers door de implementatie van de Spark + Hadoop-oplossing.
Aan het einde van deze training zijn de deelnemers in staat om:
Gebruik Hortonworks om op grote schaal betrouwbaar Hadoop uit te voeren.
Integreer de beveiligings-, governance- en operationele mogelijkheden van Hadoop met de flexibele analytische workflows van Spark.
Gebruik Hortonworks om elk van de componenten in een Spark-project te onderzoeken, te valideren, te certificeren en te ondersteunen.
Verwerk verschillende soorten gegevens, waaronder gestructureerde, ongestructureerde, in-beweging en stilstaande gegevens.
Cloudera Impala is een open source massively parallel processing (MPP) SQL query engine voor Apache Hadoop clusters.
Impala stelt gebruikers in staat om SQL query's met lage latentie uit te voeren op gegevens die zijn opgeslagen in Hadoop Distributed File System en Apache Hbase zonder dat gegevensverplaatsing of -transformatie nodig is.
Audiëntie
Deze cursus is bedoeld voor analisten en datawetenschappers die analyses uitvoeren op gegevens die zijn opgeslagen in Hadoop via Business Intelligence of SQL tools.
Na afloop van deze cursus zijn de deelnemers in staat om
Haal zinvolle informatie uit Hadoop clusters met Impala.
Schrijf specifieke programma's om Business Intelligentie in Impala SQL Dialect te vergemakkelijken.
In deze door een instructeur geleide, live training in Brugge (op locatie of op afstand), leren deelnemers hoe ze verschillende Stream Processing raamwerken kunnen opzetten en integreren met bestaande big data-opslagsystemen en gerelateerde softwareapplicaties en microservices.
Aan het einde van deze training kunnen deelnemers:
Installeer en configureer verschillende Stream Processing frameworks, zoals Spark Streaming en Kafka Streaming.
Begrijp en selecteer het meest geschikte raamwerk voor de taak.
Verwerken van gegevens continu, gelijktijdig en record voor record.
Integreer Stream Processing oplossingen met bestaande databases, datawarehouses, datameren, enz.
Integreer de meest geschikte bibliotheek voor streamverwerking met bedrijfsapplicaties en microservices.
Deze live training onder leiding van een instructeur in Brugge (online of ter plaatse) is bedoeld voor data-engineers, datawetenschappers en programmeurs die Apache Kafka functies willen gebruiken in datastreaming met Python.
Aan het einde van deze training kunnen deelnemers Apache Kafka gebruiken om de omstandigheden in continue gegevensstromen te bewaken en te beheren met behulp van Python programmering.
Kafka Streams is een client-side bibliotheek voor het bouwen van applicaties en microservices waarvan de gegevens worden doorgegeven aan en van een Kafka-berichtensysteem. Traditioneel vertrouwde Apache Kafka op Apache Spark of Apache Storm om gegevens tussen berichtproducenten en consumenten te verwerken. Door de Kafka Streams API vanuit een applicatie aan te roepen, kunnen gegevens direct in Kafka worden verwerkt, waardoor de noodzaak om de gegevens naar een afzonderlijk cluster te sturen voor verwerking wordt omzeild.
In deze live training onder leiding van een instructeur leren deelnemers hoe ze Kafka Streams kunnen integreren in een reeks voorbeeld Java applicaties die gegevens van en naar Apache Kafka doorgeven voor stroomverwerking.
Aan het einde van deze training kunnen deelnemers:
Begrijp de functies en voordelen van Kafka Streams ten opzichte van andere frameworks voor stroomverwerking
Process stream gegevens rechtstreeks binnen een Kafka-cluster
Schrijf een Java of Scala applicatie of microservice die kan worden geïntegreerd met Kafka en Kafka Streams
Schrijf beknopte code die invoer Kafka-onderwerpen omzet in uitvoer Kafka-onderwerpen
Bouw, verpak en implementeer de applicatie
Publiek
ontwikkelaars
Formaat van de cursus
Deelcollege, deelbespreking, oefeningen en zware praktijkoefeningen
Notes
Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen
Deze live training onder leiding van een instructeur in Brugge (online of ter plaatse) is bedoeld voor ontwikkelaars die Apache Kafka streamverwerking willen implementeren zonder code te schrijven.
Aan het einde van deze training zijn de deelnemers in staat om:
Installeer en configureer Confluent KSQL.
Stel een stroomverwerkingspijplijn in met alleen SQL opdrachten (geen Java of Python codering).
Voer gegevensfiltering, transformaties, aggregaties, joins, windowing en sessionization volledig uit in SQL.
Ontwerp en implementeer interactieve, continue query's voor streaming ETL en realtime analyses.
Deze door een instructeur geleide, live training (ter plaatse of op afstand) is gericht op technische personen die willen leren hoe ze een machine learning-strategie kunnen implementeren en tegelijkertijd het gebruik van big data kunnen maximaliseren.
Aan het einde van deze training zullen de deelnemers:
Begrijp de evolutie en trends op het gebied van machine learning.
Weet hoe machine learning in verschillende industrieën wordt gebruikt.
Raak vertrouwd met de tools, vaardigheden en diensten die beschikbaar zijn om machine learning binnen een organisatie te implementeren.
Begrijp hoe machine learning kan worden gebruikt om datamining en analyse te verbeteren.
Ontdek wat een data middle-backend is en hoe deze door bedrijven wordt gebruikt.
Begrijp de rol die big data en intelligente toepassingen in verschillende sectoren spelen.
In deze live training onder leiding van een instructeur in Brugge (ter plaatse of op afstand) leren deelnemers hoe ze Apache NiFi kunnen implementeren en beheren in een live labomgeving.
Aan het einde van deze training zijn de deelnemers in staat om:
Installeer en configureer Apachi NiFi.
Bron, transformeer en beheer gegevens uit ongelijksoortige, gedistribueerde gegevensbronnen, waaronder databases en big data lakes.
Automatiseer gegevensstromen.
Schakel streaminganalyse in.
Pas verschillende benaderingen toe voor gegevensopname.
Transformeer Big Data en naar zakelijke inzichten.
In deze door een instructeur geleide, live training in Brugge leren deelnemers de basisprincipes van flow-based programmeren terwijl ze een aantal demo-extensies, componenten en processors ontwikkelen met behulp van Apache NiFi.
Aan het einde van deze training zijn de deelnemers in staat om:
Begrijp de architectuur en dataflowconcepten van NiFi.
Ontwikkel extensies met behulp van NiFi en API's van derden.
Op maat ontwikkelen van hun eigen Apache Nifi processor.
Neem real-time gegevens op en verwerk ze uit ongelijksoortige en ongebruikelijke bestandsindelingen en gegevensbronnen.
Apache Solr Cloud is een gedistribueerde gegevensverwerkingsengine die het zoeken en indexeren van bestanden op een gedistribueerd netwerk vergemakkelijkt.
In deze live training onder leiding van een instructeur leren deelnemers hoe ze een SolrCloud instantie op Amazon AWS kunnen instellen.
Aan het einde van deze training zijn de deelnemers in staat om:
Begrijp de functies van SolCloud en hoe deze zich verhouden tot die van conventionele master-slave-clusters
Configureer een gecentraliseerd SolCloud-cluster
Automatiseer processen zoals communiceren met shards, het toevoegen van documenten aan de shards, enz.
Gebruik Zookeeper in combinatie met SolrCloud om processen verder te automatiseren
Gebruik de interface om foutrapportage te beheren
Load balancing van een SolrCloud installatie
Configureer SolrCloud voor continue verwerking en failover
Audiëntie
Solr-ontwikkelaars
Projectmanagers
Systeembeheerders
Analisten zoeken
Vorm van de cursus
Deels lezing, deels discussie, oefeningen en zware hands-on oefening
Deze live training onder leiding van een instructeur in Brugge (online of ter plaatse) is bedoeld voor data-engineers, datawetenschappers en programmeurs die Spark Streaming functies willen gebruiken bij het verwerken en analyseren van realtime gegevens.
Aan het einde van deze training zijn deelnemers in staat om Spark Streaming te gebruiken om live datastromen te verwerken voor gebruik in databases, bestandssystemen en live dashboards.
MLlib is Spark's machine learning (ML) bibliotheek. Het doel is om praktische machine learning schaalbaar en eenvoudig te maken. Het bestaat uit algemene leeralgoritmen en hulpprogramma's, waaronder classificatie, regressie, clustering, collaboratieve filtering, vermindering van de dimensionaliteit, evenals optimalisatieprimitieven op een lager niveau en pijplijn-API's op een hoger niveau.
Het is verdeeld in twee pakketten:
spark.mllib bevat de originele API gebouwd bovenop RDD's.
spark.ml biedt een API op een hoger niveau gebouwd bovenop DataFrames voor het construeren van ML-pijpleidingen.
Publiek
Deze cursus is bedoeld voor ingenieurs en ontwikkelaars die een ingebouwde machinebibliotheek voor Apache Spark
Deze door een instructeur geleide, live training (op locatie of op afstand) is gericht op technische personen die Talend Open Studio voor Big Data willen inzetten om het proces van het lezen en verwerken van Big Data te vereenvoudigen.
Aan het einde van deze training kunnen deelnemers:
Installeer en configureer Talend Open Studio voor Big Data.
Maak verbinding met Big Data-systemen zoals Cloudera, HortonWorks, MapR, Amazon EMR en Apache.
Begrijp en installeer de big data-componenten en connectoren van Open Studio.
Configureer parameters om automatisch MapReduce-code te genereren.
Gebruik de drag-and-drop-interface van Open Studio om Hadoop-taken uit te voeren.
Teradata is een van de populaire relationele Database Management systemen. Het is vooral geschikt voor het bouwen van grootschalige datawarehousing-toepassingen. Teradata bereikt dit door het concept van parallellisme.
Deze cursus laat de deelnemers kennismaken met Teradata.
Deze live training onder leiding van een instructeur introduceert de concepten achter interactieve data-analyse en leidt deelnemers door de implementatie en het gebruik van Zeppelin in een omgeving met één of meerdere gebruikers.
Aan het einde van deze training zijn de deelnemers in staat om:
Installeer en configureer Zeppelin
Ontwikkel, organiseer, voer uit en deel gegevens in een browsergebaseerde interface
Visualiseer resultaten zonder te verwijzen naar de opdrachtregel of clusterdetails
Lange workflows uitvoeren en eraan samenwerken
Werk met een aantal plug-in taal-/gegevensverwerkende backends, zoals Scala (met Apache Spark), Python (met Apache Spark), Spark SQL, JDBC, Markdown en Shell.
Integreer Zeppelin met Spark, Flink en Map Reduce
Beveilig multi-user instances van Zeppelin met Apache Shiro
ZooKeeper is een gecentraliseerde service voor het onderhouden van configuratie-informatie, naamgeving, gedistribueerde synchronisatie en het leveren van groepsservices.
Lees meer...
Laatst bijgewerkt:
Testimonials (25)
De trainer was erg vriendelijk en leerde me wat ik nodig had om mijn werk te doen, een persoonlijke cursus met praktijk om het goed te begrijpen. Ik heb behoorlijk wat trainingen gedaan en deze was er een van de beste. Bedankt voor zijn duidelijke uitleg.
Thomas - DGFIP - SSI
Cursus - Apache Zookeeper
Automatisch vertaald
Het vermogen van de trainer om de cursus af te stemmen op de eisen van de organisatie, anders dan alleen het geven van de cursus om deze te geven.
Masilonyane - Revenue Services Lesotho
Cursus - Big Data Business Intelligence for Govt. Agencies
Automatisch vertaald
Veel praktijkvoorbeelden, verschillende manieren om hetzelfde probleem aan te pakken, en soms niet zo voor de hand liggende trucs om de huidige oplossing te verbeteren
Rafal - Nordea
Cursus - Apache Spark MLlib
Automatisch vertaald
Trainer had een goed begrip van concepten
Josheel - Verizon Connect
Cursus - Amazon Redshift
Automatisch vertaald
Het goede humeur, de ondersteuning en de vaardigheden van de trainer.
Oumayma - Physiobotic
Cursus - Scaling Data Pipelines with Spark NLP
Automatisch vertaald
analytical functions
khusboo dassani - Tech Northwest Skillnet
Cursus - SQL Advanced
The live examples
Ahmet Bolat - Accenture Industrial SS
Cursus - Python, Spark, and Hadoop for Big Data
how the trainor shows his knowledge in the subject he's teachign
john ernesto ii fernandez - Philippine AXA Life Insurance Corporation
Cursus - Data Vault: Building a Scalable Data Warehouse
I enjoyed the Maven training and how to configure it. I like to use Java programming language.
Robert Cost - Corning Incorporated
Cursus - Apache ActiveMQ
trainer's knowledge
Fatma Badi - Dubai Electricity & Water Authority
Cursus - Big Data - Data Science
very interactive...
Richard Langford
Cursus - SMACK Stack for Data Science
Sufficient hands on, trainer is knowledgable
Chris Tan
Cursus - A Practical Introduction to Stream Processing
During the exercises, James explained me every step whereever I was getting stuck in more detail. I was completely new to NIFI. He explained the actual purpose of NIFI, even the basics such as open source. He covered every concept of Nifi starting from Beginner Level to Developer Level.
Firdous Hashim Ali - MOD A BLOCK
Cursus - Apache NiFi for Administrators
Trainer's preparation & organization, and quality of materials provided on github.
Mateusz Rek - MicroStrategy Poland Sp. z o.o.
Cursus - Impala for Business Intelligence
Open discussion with trainer
Tomek Danowski - GE Medical Systems Polska Sp. Z O.O.
Cursus - Process Mining
Get to learn spark streaming , databricks and aws redshift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Cursus - Apache Spark in the Cloud
Very useful in because it helps me understand what we can do with the data in our context. It will also help me
Nicolas NEMORIN - Adecco Groupe France
Cursus - KNIME Analytics Platform for BI
That I had it in the first place.
Peter Scales - CACI Ltd
Cursus - Apache NiFi for Developers
Instructor very knowledgeable and very happy to stop and explain stuff to the group or to an individual.
Paul Anstee - Northrop Grumman
Cursus - Apache Accumulo Fundamentals
Nice training, full of interesting topics. After each topic helpful examples were provided.
Pawel Wojcikowski - MicroStrategy Poland Sp. z o.o.
Cursus - Teradata Fundamentals
practical things of doing, also theory was served good by Ajay
Dominik Mazur - Capgemini Polska Sp. z o.o.
Cursus - Hadoop Administration on MapR
practice tasks
Pawel Kozikowski - GE Medical Systems Polska Sp. Zoo
Cursus - Python and Spark for Big Data (PySpark)
Recalling/reviewing keypoints of the topics discussed.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Cursus - Building Stream Processing Applications with Kafka Streams
The VM I liked very much
The Teacher was very knowledgeable regarding the topic as well as other topics, he was very nice and friendly
I liked the facility in Dubai.
Safar Alqahtani - Elm Information Security
Cursus - Big Data Analytics in Health
I genuinely enjoyed the hands passed exercises.
Yunfa Zhu - Environmental and Climate Change Canada
Big Data training cursus in Brugge, Big Data opleiding cursus in Brugge, Weekend Big Data cursus in Brugge, Avond Big Data training in Brugge, Big Data instructeur geleid Brugge, Big Data op locatie in Brugge, Big Data trainer in Brugge, Weekend Big Data training in Brugge, Big Data on-site in Brugge, Big Data instructeur in Brugge, Big Data instructeur geleid in Brugge,Big Data lessen in Brugge, Big Data een op een training in Brugge, Big Data een op een opleiding in Brugge, Big Data boot camp in Brugge, Big Data coaching in Brugge, Avond Big Data cursus in Brugge, Big Data privé cursus in Brugge