AWS Partner Story: VDAB & Radix.ai

About VDAB

VDAB, a public employment service (PES), helps residents of Flanders (a region in Belgium) find jobs or take vocational training.

Using Machine Learning to Connect Job Seekers with Jobs

The Radix.ai team connected with VDAB through their Innovation Lab, an internal team focused on innovative technologies and ideas. The team uses proof-of-concept (POC) projects to validate which innovations support the overall strategy of VDAB.

“The Innovation Lab team approached us with two questions,” explains Davio Larnout, cofounder and business lead at Radix.ai. “First, they asked how they could use machine learning to create value from their data. Then they wondered how to translate that in a way that would impact the strategic goals of the PES. We realized the data contained in their CVs and job postings would make a great starting point to help them achieve their mission of connecting people with jobs.” 

“A core function of VDAB is matching job seekers to vacancies. We’re always looking for better ways to make matches for our users,” says Michael De Blauwe, project manager at the VDAB Innovation Lab.

“VDAB’s original job-matching tool is rules-based, which requires one-to-one matches for a successful search,” says Larnout. That means if a posting states a requirement, such as a driver’s license or specific software experience, then a match occurs only if the job seeker’s CV contains the words and phrases used in the job description. Rules-based models find it difficult to process natural language, whereas a deep learning solution captures nuance and accounts for relationships between certain phrases or user preferences. "The hosting service for the BNA website was becoming increasingly problematic," says Huda Ahmed Mohsen, chief of IT for MIA. Problems with the site's availability, performance, and security were becoming more frequent even as BNA was working to implement a much-needed redesign of both the website and its back-end publishing workflows.

How a Deep Learning Model Learns How the Job Market Evolves

Radix.ai applied machine learning to VDAB data to provide better-targeted matches for its users. Deep learning, a subset of machine learning, enables machines to mimic human behavior. “Deep learning requires a lot of computing power,” says Larnout. “We use Amazon Web Services to provide that power in the most flexible way.” Radix.ai, an AWS Partner Network (APN) Standard Consulting Partner, relies on Amazon Elastic Compute Cloud (Amazon EC2) to generate compute capacity in the cloud whenever its clients need it. The company uses Amazon CloudWatch to gain a unified view of its AWS resources and services.

There was a sense of urgency with the VDAB project, which was internally named JobNet. Radix.ai and the Innovation Lab team shared a prototype of the service with VDAB’s director. She was impressed with the results and asked that the technology be put in production within six months.

“Deploying our technology required access to on-demand computing power and flexibility to spin up different machines and services. These abilities allow regular experimentation and learning by the algorithm. The most convenient way to ensure that was through the AWS Cloud,” says Larnout.

To train Radix.ai’s deep learning model, VDAB regularly uploads new vacancies and CVs to the engine via Amazon Simple Storage Service (Amazon S3), which acts as a bridge with clients, where they can drop data. VDAB automatically loads content in an Amazon S3 bucket and Radix.ai picks it up to process it further using Amazon Simple Queue Service (Amazon SQS). With each new data set, the engine learns how the job market evolves, noting changes in job demand and how trends shift over time.

The solution also learns how jobs are spoken of and what the changing interplay of words means. For example, the job of a data scientist is relatively new. Related to that role are the jobs of machine learning engineer, data analyst, and even AI architect. “The system we created learns the meaning of those words, those new titles, from the data alone. No one has to manually feed in that information,” says Larnout.

Radix.ai Helps VDAB Meet Belgians' Unique Needs

Radix.ai’s deep learning model continues to improve matching quality that surpasses the rules-based model. Rather than relying on one-to-one matching, search results are now more targeted. Based on word relationships and the interests and behavior of the users, job matches align more closely to the aptitudes, talents, and preferences of the job seekers.

“The data from our systems reveals these relationships, creating a matching solution that is completely data-driven, which is one of the goals of the Innovation Lab,” says Eric Klewais, analytics manager for VDAB Innovation Lab.

Another benefit of Radix.ai’s deep learning model is its ability to operate in multiple languages. Inhabitants of Flanders primarily speak Dutch, but Belgium is a multilingual country that counts Dutch, French, and German as official languages. In addition, many residents and their employers speak English. This makes the technology appealing to other European public employment services that serve multilingual job seekers and employers.

The success of the JobNet launch has prompted more use cases that VDAB and Radix.ai want to explore. For example, an employer may receive notice from an employee that she plans to leave her job. This employee performed well in her job and the employer would like to replace her with someone with similar skills and abilities. The deep learning model could send similar matches to the employer, revealing job seekers that would make a good match for the open position.

“This model learns how people view jobs and better defines who matches specific job listings. We have open vacancies that have been difficult to fill for a variety of reasons. This deep learning tool helps us bridge that gap,” says De Blauwe.

VDAB has hosted PES leaders from multiple countries to share its success and allowed Radix.ai to demonstrate the project. Understanding the value of partnership, Radix.ai joined the AWS Public Sector Partner Program and is exploring the use of Amazon SageMaker as a tool to build, train, and deploy machine learning models at scale. Supported by the computing power of the AWS Cloud, the reach of the APN, and the success of JobNet, Radix.ai believes other European public employment services can benefit from this tool, just as VDAB has.

19-12-2018 - Amazon


re:Invent 2018 Keynote: Andy Jassy

Andy Jassy, CEO of Amazon Web Services, delivers his AWS re:Invent 2018 keynote, featuring the latest AWS news and announcements.

Top Takeaways from the AWS Public Sector Breakfast at re:Invent

read about top takeaways

Register to Innovate today to access to all content from re:Invent 2018

Welcome to AWS Innovate – re:Invent Recap Edition 2018. This online conference is designed for executives, IT professionals, and anyone looking to leverage the AWS Cloud to build and transform their businesses.

Whether you are new to the cloud or an experienced user, you will learn something new at AWS Innovate. This free online conference is designed to inspire and educate you about AWS services and help you develop the skills to design, deploy, and operate infrastructure and applications.

Each November, AWS hosts re:Invent, our global cloud computing conference featuring Keynotes, Product and Service Announcements, a Partner Expo Hall, Breakout Sessions, Chalk Talks, Workshops, Builders Sessions, Training and Certification, and Hackathons that cover AWS core topics and embrace the emerging technologies we are developing.

This special Innovate edition brings you a recap of the event, breakout sessions, launches, AWS insights, live Q&A access to AWS experts, and more.

19-12-2018 - Amazon


NxtPort: een mooi voorbeeld van deeleconomie bij de Haven van Antwerpen


Dankzij het digitale dataplatform NxtPort wordt de Antwerpse haven een aantrekkingspool voor technologische ontwikkeling op het snijvlak van industrie, logistiek en transport. De initiatiefnemers noemen het een wereldprimeur.

Een mooi voorbeeld van de nieuwe ‘deeleconomie’

Het gloednieuwe dataplatform zal gegevens uit diverse geledingen van de logistieke ketting uit de haven verzamelen. De nieuwe technologieën maken het mogelijk om op grote schaal gegevens verwerken en ter beschikking te stellen van de spelers op het terrein die ze nodig hebben. Nu gaat er nog ontzettend veel tijd en energie verloren omdat de verschillende bedrijven in de haven elkaars gegevens niet kunnen raadplegen omdat ze op verschillende digitale platformen werken. Veel wordt zelfs nog op papier afgehandeld.

Wanneer bv. een schip in de haven aankomt met ettelijke duizenden containers, weet de stouwer die ze lost niet hoe ze worden opgehaald: per truck, per spoor op per binnenschip. Indien wel zou hij de containers die op een later tijdstip per trein vertrekken elders op zijn terminal kunnen plaatsen dan een container die binnen twaalf uur met een truck vertrekt. Nu moet hij zijn containers soms tot vier keer herpositioneren omdat hij niet weet welke container wanneer door wie afgehaald zal worden. Daarnaast zijn de partijen die containers komen afhalen vaak pas heel laat of niet op de hoogte van het feit dat een container al dan niet aanwezig en vrijgegeven is. Verschillende partijen (douane, scheepagent, terminal) geven elk hun eigen groen licht voor de container pick-up via hun eigen (al dan niet digitale) kanalen. Bundeling van deze groene lichten in een centraal data platform kan zorgen voor een snellere doorstoom van de containers naar hun bestemming.  Aan de terminals kampen de truckers en binnenvaart operators soms met enorme wachttijden omdat de informatie niet goed doorstroomt.

In de nautische keten gaan jaarlijks duizenden uren verloren aan wachttijd omdat er geen goede informatie-uitwisseling is tussen de verschillende partijen die nodig zijn om een schip de haven van Antwerpen binnen te brengen. Centrale planning en afstemming tussen de sluizen, rivierloodsen, dokloodsen, sleepboten, etc. kan het aanlopen van Antwerpen nog aantrekkelijker maken voor rederijen.

Het is de bedoeling dat op termijn alle spelers in de supply chain hun logistieke gegevens in de superdatabank stoppen. Het is een open en neutraal systeem, gericht op de uitwisseling van data. De data die verzameld is zal beschikbaar zijn voor alle partijen in de logistieke ketting, rederijen, expediteurs, terminals, verschepers, loodsen, douane… etc, maar onder strikte toegangscontrole van diegene die de data aangeleverd heeft.  De bedoeling is dat externe bedrijven applicaties en apps ontwikkelen die de data van NxtPort beschikbaar maken voor hun gebruikers. Iedereen levert vrijwillig data aan, iedereen kan nieuwe toepassingen ontwikkelen en iedereen kan gebruik maken van de gecommercialiseerde of open oplossingen die gebouwd zijn boven op de data services van NxtPort.

Hoe heeft BDO Crossroad hierbij geholpen?

  • BDO Crossroad heeft het initiële marktonderzoek gedaan voor het initiatief en een eerste technische aanzet.
  • Voor de selectie van de platform technologie en leveranciers adviseerde BDO Crossroad de Raad van Bestuur van NxtPort.
    • Een IT Steerco samengesteld uit de initiatiefnemende bedrijven van NxtPort (Katoennatie, MSC, DP World, BASF en PSA) werd geïnstalleerd net zoals een juristenkantoor.
    • De planning en het budget werden opgemaakt.
    • De partners werden in kaart gebracht op basis van hun technische en financiële draagkracht, hun imago en reputatie in de markt.
  • Na het selectieproces heeft BDO Crossroad samen met de finalist het wettelijke en budgettaire overleg gefaciliteerd.
  • Een nieuwe organisatie werd gevormd rond de CEO, Daniël Lievens. BDO Crossroad is in het eerste jaar van NxtPort als bedrijf aan boord gebleven ter ondersteuning van de functionele uitwerking van de ‘use cases’ met de ‘community’ en om mee de architectuur van het technische platform vorm te geven.


De eerste toepassingen op het platform zijn beschikbaar sedert 2017, en de volledige portfolio aan data services kan gevonden worden op de NxtPort marketplace: https://www.nxtport.eu/en/market/our-marketplace/marketplace#

Belangrijke use cases zijn onder meer:

  • ‘next mode of transport’ van containers melden aan de terminal
  • Groene lichten voor container pickup
  • Digitaal hergebruik van de manifestgegevens van import containers
  • ‘Vessel stay’ informatie
  • ‘Secure’ container pickup process


Het pragmatisme, de ‘hands-on’ benadering en voeten-op-de-grond-mentaliteit, liggen aan de basis van de samenwerking. De diepe kennis van de IT-materie en technische kennis waren eveneens uitermate belangrijk voor het project. Het unieke samenwerkingsmodel en de frequente communicatie-initiatieven hebben geleid tot een succesvolle eerste fase. 

Daniël Lievens van NxtPort aan het woord 

"BDO Crossroad heeft ons van in het begin van het traject geholpen met de vormgeving van het concept tot de concrete implementatie. Ik apprecieer de unieke combinatie van hun sectorkennis enerzijds en anderzijds hun grondig begrip van de technologie en uiteraard ook hun flexibiliteit." 

19-12-2018 - BDO Digital


How Cloud Services Can Help Optimize Public Transportation Systems in Cities

Transportation and traffic management are hot topics when city planners and administrations think about ways to make a city smarter and more livable. Recent statistics tell us that drivers in the U.S. spend an average of 42 hours per year in traffic in cities and lose $1,400 on gas, while idling. In Europe, cities like London and Paris show an average of 74 and 69 hours spent idling per year respectively. Researchers in England found adding an additional 20 minutes of commuting per day has the same negative effect on job satisfaction as receiving a 19% pay cut. These statistics and an increasing desire to be more environment friendly are reasons why city leaders are looking to tackle this problem.

Adaptive Traffic Flow Systems – dawn of real-time analytics, modeling and forecasting

The California Department of Transportation (Caltrans), in partnership with Partners for Advanced Transportation Technology (PATH) at the University of California, Berkeley, developed a project called Connected Corridors that seeks to reduce congestion and improve mobility, travel-time reliability, safety, and system efficiency in California’s most congested corridors. The project includes a Data Hub to consolidate real-time Internet of Things (IoT) sensor datasets; scalable, real-time traffic modeling and forecasting; an incident response Decision Support System informed by data and models; and coordinated, real-time control of signals, ramp meters, and detour signs.

A similar concept is being built by Louisville, Kentucky. By using machine learning, real-time traffic data, IoT infrastructure, and interconnected systems, a next-generation adaptive traffic-flow management system can sense detrimental systemic changes to the circulatory nature of traffic and automatically adjust city infrastructure to mitigate the impact. With such a large amount of data collected and analyzed, they needed a scalable and reliable platform for testing their applications and model. They went all-in on AWS to support data storage, analytics, and scaling for all of their testing environments.

Dev/Test Environments for Smart Cities

Testing and developing new models and applications are key enablers for developing a smart city. Technology is evolving rapidly. If planners focus on pre-packaged solutions that fail to adapt to changes in user requirements, it may hinder or slow down city administrators in meeting the objective of transforming their community into a smart city. The concept of ‘smart’ itself is relative in this context –  a city needs to be smarter than it was before.One way administrators can overcome this challenge is by adopting solutions and technologies that can support evolving demands.

Going back to the traffic management example, a common solution is to deploy traffic sensors on the ground to sense the traffic flow. After you collect enough data and understand traffic flow patterns, you may want to deploy additional functionality or machine learning models directly onto the sensor and extend its capabilities to meet real-time response needs.

AWS Greengrass lets you run local compute, messaging, data caching, sync, and machine learning (ML) inference capabilities for connected devices in a secure way. With AWS Greengrass, connected devices can run AWS Lambdafunctions, keep device data in sync, and communicate with other devices securely – even when not connected to the Internet. If the connected IoT device/sensor you deployed to monitor traffic is AWS Greengrass compatible, then you can easily extend its capability over time with new Lambda functions or with new ML inference models.

With fast emerging concepts such as connected cars, cities have exciting new opportunities to address traffic challenges. A recent study suggests that a single connected car will send around 25GB of data per hour from its sensors. While most of this data may be sent to private users or vehicle manufacturers, in some contexts and scenarios, cities can derive benefits by leveraging this data, especially when the city owns and/or is responsible for a vehicle fleet.

For example, connected police cars or ambulances may send or receive data as they patrol the city and this data can be used to understand vehicle performance, maintenance needs, and operational readiness. Central Command Center and operational teams may get real-time insights and situational awareness based on data transmitted directly from the vehicle. This data can, in turn, be used to adjust operation of traffic lights in real-time, to reduce the time it takes for an ambulance or police car to reach their destination.

Storage services like Amazon S3 give customers the ability to store virtually an unlimited amount of data cost-effectively, while services like Amazon SageMaker make it easy to build, train, and deploy machine learning models at scale.

Using cloud services, administrators have the opportunity to deliver on the promise of making our cities smarter and more responsive, fulfilling the smart city promise: making lives of citizens more enjoyable and safer. To learn more about how other cities around the world are becoming smarter, increasingly connected, and more sustainable, visit the AWS Smart Cities site.

10-12-2018 - Amazon


AWS for Smart, Connected and Sustainable Cities

Cloud technology will be the backbone infrastructure for more sustainable cities of the future, but you can start transforming your city today. AWS and our partner ecosystem can help you implement smart city solutions to support your goals around energy efficiency, air quality, intelligent transportation, public safety, public health, and other programs focused on improving quality of life for your citizens.

What makes a city smart? Your data and your vision! By leveraging the multiple data sources that you have today and integrating additional datasets, you can design modern programs and services that make a city smart. Through sensors, connectivity, and analytics, AWS can help you begin your transformation.

AWS offers a broad set of global cloud-based products including compute, storage, databases, analytics, networking, mobile, developer tools, management tools, IoT, security and enterprise applications. Customers can use these services to build agile, secure, and cost-effective solutions quickly. Customers also have the option to deploy solutions provided by our partners on top of AWS.

read more

07-12-2018 - Amazon


Creating a Long-Term Smart Cities Vision with AWS

Cities worldwide are improving citizen services and economic and environmental outcomes through technology, while also seeking to create a vision of what a smart, connected, and sustainable city of the future will look like. While you can start building and experimenting today, it’s important to have a long-term vision and a set of principles to guide you in building cost-effective, adaptable, secure, and low-risk solutions during a time of rapid technological change.

Some starting points to consider include:

  • Cities collect an increasing amount of data. In order to integrate data with other sources, data sources should also be open and accessible.
  • Connected devices and IoT sensors are becoming more prevalent, powerful, and cheaper.
  • The rise of machine learning (ML) continues in a range of applications, both in the cloud and at the edge.

A smart city platform is made up of inputs, processes, and outputs. This approach highlights the centrality and importance of data, which can help you build the right solutions for the long and short term.


City data is collected from a wide and growing array of sources. These can be legacy data sources, IoT sensors that transmit data securely and at scale to the cloud, or video and audio sources that can be analyzed at the edge using a trained machine learning model deployed with AWS Greengrass. People can also be sources of data via mobile apps and wearable devices. And open data portals, such as the Registry of Open Data on AWS, can also enrich your data.

Customers and partners can develop data ingestion capabilities using AWS services, like Amazon FreeRTOSAWS IoT CoreAWS GreengrassAmazon Kinesis, and Amazon Kinesis Video Streams. Starting with a small volume of data, they can then scale to cater to millions of devices and messages, only ever paying for what they use.

One customer example is the City of Newport in Wales, UK, who partnered with system integrator Pinacl Solutions and IoT solution provider Davra Networks to build an ingestion network for air quality, water, and waste Management IoT sensors. Another example is PetaBencana.id, which provides the citizens of Jakarta, Indonesia with real-time flood information collected using IoT water-level sensors and crowd-sourced data. And Miovision brings connected sensors to existing infrastructure and uses data to enable analytics that improve transport planning.


Once you’ve ingested data in the cloud, you need to act on and store the data for later use. Amazon S3 is a highly reliable, secure, and scalable object store ideal for smart city solutions. Once data has moved to S3, customers can use services like AWS GlueAWS IAM, and AWS Lambda to build a data lake that can transform and enrich their raw data, making it available for analytics and other solutions.

Customers can build their own data lake and data management platform or engage with our smart cities partners like C3 IoT, Xaqt, and ThingLogix. For example, Kansas City, Missouri, turned to Xaqt to take all of the data being generated by disparate devices day and night, plus more than 4,200 existing datasets, and turn it into tangible outcomes.

Whichever path you choose, the acquisition, storage, and management of your city data will help support evidence-based decision-making and help you build data assets for public use and future innovation.


A city’s data can support many use cases. With AWS, you can:

Find out more about building a scalable, secure, adaptable and future-proof smart city platform on AWS at AWS for Smart, Connected and Sustainable Cities and AWS Marketplace – Smart City Solutions.  And get ideas from the AWS City on a Cloud Innovation Challenge winners.

And listen to the “Using IoT for Smart Cities” podcast here.

04-12-2018 - Amazon


Er zijn geen architectuur regels voor een kasteel in de wolken

Door: Melissa Scholten

De bekende uitspraak van G.K. Chesterton “There are no rules of architecture for a castle in the clouds” uit het begin van twintigste eeuw vat een typisch probleem van de eenentwintigste eeuw treffend samen. Ondernemingen bouwen momenteel hun IT-infrastructuur om met applicaties die deels op een cloud- en deels in een private omgeving draaien. Voor de meeste bedrijven is de transitie naar de cloud een meerjarentraject dat nog lang niet voltooid is: afgezien van de architectuuruitdagingen is de overgang naar een meer consumptiegebaseerde benadering voor diensten niet iets wat van vandaag op morgen gerealiseerd kan worden. Daarom is de hybride cloud nu de logische keuze voor bedrijven die het voordeel van de openbare cloud willen combineren met de mogelijkheid (of de noodzaak) om lokale IT te behouden. Bovendien wensen organisaties een gerichte architectuur met een beter evenwicht tussen prestaties en kosten, waarbij wordt voldaan aan de specifieke behoeften van applicaties en werklasten.

Voorheen vond men de openbare cloud vaak te onvoorspelbaar of te riskant om er applicaties op te draaien die van essentieel belang waren voor klanten. Bedrijven verscholen zich veilig achter de eigen firewall en zagen traditionele lokale omgevingen als de beste manier om het beheer over de prestaties van applicaties en de beveiliging in eigen handen te houden. Nu het aanzien en de reputatie van grote cloud-providers als Microsoft Azure en AWS is gegroeid, zien veel ondernemingen er echter minder problemen in om belangrijke applicaties op een openbare cloudomgeving te laten draaien.

Een echt kasteel in de wolken, op de cloud, bouwen, wordt daarmee langzaam een noodzaak. Als hier veiligheid en betrouwbaarheid geboden kunnen worden, krijgt de cloud de voorkeur als locatie voor veel bedrijfsapplicaties. De uitdaging voor veel cloudstrategen bij het ontwerpen van zo'n hybride cloudomgeving komt echter neer op beveiliging en het waarborgen van hoge prestaties van de applicaties die vaak over private en openbare omgevingen zijn verdeeld: dit is een complexe opgave. Lokale data en toepassingen op de cloud via het openbare internet met elkaar verbinden kan bijvoorbeeld leiden tot latency-variaties en doorvoerproblemen die de prestaties van applicaties exponentieel aantasten en tot allerlei problemen in de hele onderneming leiden.

We zien dat deze problemen zich op allerlei manieren openbaren:

    • frustratie over de slechte prestaties van applicaties;
    • niet-optimale productiviteit van medewerkers door de trage toegang tot grote bestanden in de cloud vanwege beperkte bandbreedte;
    • compliance- en auditrisico's;
    • jitter en bufferen tijdens video- en audiovergaderingen; en
    • de moeilijkheid om op de cloud gebaseerde gegevensverwerkings- en nieuwe SaaS-applicaties met bestaande databases in private datacentra te integreren.

Ondernemingen die hybride clouds gaan implementeren moeten beoordelen of de algehele prestaties van hun applicaties voor al deze nieuwe cloudomgevingen gereed zijn en hoe ze een doeltreffende beveiliging kunnen inzetten voor hun hybride cloudnetwerk.

Verlies het raakvlak van de cloud niet uit het oog

Nabijheid is hierbij het sleutelwoord. Ondernemingen moeten zorgvuldig nadenken over de connectiviteit tussen hun private infrastructuur en de cloud; geen enkel bedrijf wil immers worden overgeleverd aan de grillen van variabele netwerkprestaties en klanten pikken trage applicaties gewoonweg niet. De bron van de latency-variaties identificeren zou tot een hybride cloudoplossing kunnen leiden waarvan de architectuur vooral gebaseerd is op de betrouwbaarheid en prestaties van het netwerk. Dit kan inhouden dat men er alleen maar voor hoeft te zorgen dat taken die op de cloud draaien zich zo dicht mogelijk bij de cloud-providers bevinden waarin het bedrijf zijn vertrouwen heeft gesteld en dat bestaande netwerkvirtualisatie-omgevingen moeten worden uitgebreid. Zo kunnen gegevens snel en veilig tussen locaties worden uitgewisseld en behoudt de onderneming “enkelglas-”zicht op de totale omgeving.

Dit is precies wat het gebruik van neutrale colocatie binnen een hybride cloudarchitectuur mogelijk maakt. Een centrale hub zoals Interxion in de hybride cloudomgeving opnemen biedt de onderneming meer flexibiliteit, waardoor zij werklasten snel over publieke en private cloud-middelen kan verplaatsen op het moment dat de verwerkingsbehoeften en kosten veranderen. Belangrijker nog is dat neutrale colocatie een centrale locatie biedt waar de functies op het raakvlak tussen het bedrijfsnetwerk en private gateways naar cloudproviders zich vlak bij elkaar bevinden, hetgeen de prestaties en zichtbaarheid verbetert en omwegen en de complexiteit van het ontwerpen van netwerken vermindert.

Uw kasteel in de wolken bouwen

Een goed ontworpen netwerk gecombineerd met een neutrale colocatieomgeving kan bedrijven helpen de enorme voordelen van de hybride cloud te benutten, en tegelijkertijd problemen met stabiliteit, beveiliging en prestaties weg te nemen. Door te kiezen voor colocatie in een faciliteit die onmiddellijk toegang geeft tot een multi-cloud IT-omgeving, internetproviders en -exchanges, netwerkoperators en IT-dienstverleners kunnen organisaties de kosten voor infrastructuur verminderen, snel de juiste cloud voor de juiste activiteit selecteren, de beschikbaarheid vergroten en latency verminderen.

Via de Cloud Connect-oplossing stelt Interxion klanten in staat de flexibiliteit van hun bedrijf te vergroten en hun netwerkstrategieën te optimaliseren door netwerken, cloudplatformen en communities van klanten met elkaar te verbinden. Hiermee kunnen bedrijven hun IT-infrastructuur naast de cloudplatformen van hun keuze coloceren en kritische raakvlakfuncties coloceren en daarmee de netwerkuitdagingen overwinnen en hun cloudgebruik optimaliseren.

Uiteindelijk is het allergrootste voordeel het vermogen een beveiligde cloudomgeving vorm te geven die de onderneming in staat stelt diensten te leveren die geen enkele concurrent kan dupliceren. Dit is het onderscheidende kenmerk van een bedrijf dat gaat slagen in het digitale tijdperk.

Bent u klaar om uw cloudvisie bewaarheid te laten worden? Ontdek hoe Cloud Connect de prestaties van uw applicaties kan verbeteren.

03-12-2018 - InterXion


Nederlandse overheid onderzoekt mogelijke privacy inbreuk van Microsoft

De Nederlandse overheid liet recent onderzoek doen naar hoe Microsoft omgaat met de informatie die het verzamelt via de online versie van Office 365 en de Office ProPlus suite. Momenteel gebruiken een 300 000 Nederlandse overheidsmedewerkers deze software, die nu nog op servers van de overheid zelf staat maar binnenkort naar een publieke of hybride cloud zou gaan.

Niet in lijn met GDPR

Het onderzoek kwam er omdat Microsoft niet bekend wou maken welke informatie het verzamelt over de gebruikers. Het geeft ook geen mogelijkheid om het verzamelen van deze gegevens uit te schakelen, waar bedrijven zoals Google deze optie bijvoorbeeld wel aanbieden. Dit is dus niet in lijn met de Europese privacyregels en zo stelde de Nederlandse overheid The Privacy Company aan om hiernaar onderzoek te voeren.


Rapport en verbeterplan

Uit het onderzoeksrapport blijkt dat telemetriegegevens en andere informatie uit Office applicaties verzameld werden door Microsoft, zoals titels van e-mails en zinnen waarop men vertaling- of spellingstools had ingesteld. Men vermoedt dat Microsoft deze data zou gebruiken om zijn eigen software te verbeteren.

Het feit dat de informatie zonder medeweten van de gebruikers verzameld en opgeslagen werd op servers in de VS, strookt niet met de GDPR regels en kan Microsoft een boete opleveren.  

De Nederlandse overheid werkt nu samen met Microsoft een verbeterplan uit om het probleem op te lossen. Microsoft belooft om de nodige aanpassingen tegen april 2019 door te voeren. Bekijk hier het volledige rapport.

Lees meer over waarom het belangrijk is om een back-up te voorzien voor uw Office 365 data en hoe uw organisatie dit kan aanpakken via de Securitas offering samen met Veeam en NetApp.

Lees meer over waarom het belangrijk is om uw Office 365 data optimaal te beschermen, welk type security incidenten er bestaan en hoe uw organisatie zich hier tegen kan beschermen via de Securitas offering samen met Check Point. 

Bron: Datanews en Rijksoverheid Nederland

03-12-2018 - Securitas


Zo beheert u uw IT efficiënter

Technologie verandert sneller en sneller en daarmee ook de behoefte van de medewerkers. Dit maakt het beheer van de IT-portefeuille steeds ingewikkelder en tijdrovender voor de IT-afdeling. CHG-MERIDIAN helpt u te focussen op uw core-business en werkt samen met de verschillende afdelingen om de lifecycle van technologie en de bijhorende kosten te beheren.

CHG-MERIDIAN maakt dit proces eenvoudig. Gedurende heel het proces staan wij u bij. We consulteren u over de nieuwste technologieën en de beste oplossingen voor uw uitdagingen. We zijn onafhankelijk van leveranciers, merken en Banken.

Intelligente financiering

We bieden geoptimaliseerde financiering voor bedrijfsconcepten op maat: flexibel en volledig toegespitst op uw behoeften. U kunt gebruikmaken van pay-per-use, waarbij de eerste investering over de gehele levensduur wordt verspreid en er per gebruik wordt gefactureerd. Met andere woorden: één prijs per maand per werkplek. Kostenplaatstoewijzing wordt hierdoor aanzienlijk gemakkelijker. Uw rendement wordt gedeeld en is vanaf het eerste moment aanwezig.

Verder ondersteunen we in de uitrol en implementatie van de technologie en het beheer ervan tijdens de levensduur. We hebben gebruiksvriendelijke processen waardoor de keuze en procurement voor de geschikte apparatuur eenvoudiger wordt. Daarnaast kunnen we de uitrol ter plaatse komen doen alsook de installatie en opleiding ervan. Optioneel kunnen we u een verzekering voor al uw assets aanbieden. We hebben gebruiksvriendelijk technologie en een assetmanagement systeem TESMA® waarmee alle data voor elke afdeling gemakkelijk en in één oogopslag zichtbaar zijn. TESMA® geeft u een compleet overzicht van de geleverde apparatuur en de daaraan verbonden kosten maar ook de linken naar de juiste afdelingen of medewerkers. U kunt TESMA® helemaal aanpassen aan uw organisatiestructuur en aan de behoeften van elke afdeling, zoals bijvoorbeeld de IT-afdeling om de verzekerde toestellen aan te duiden. Daarnaast kunt u deze applicatie gebruiken om apparatuur te bestellen, kosten intern toe te wijzen of te voldoen aan regelgeving op het gebied van documentatie.

Efficiënt End-of-life proces

Op het einde van de gebruiksduur van de toestellen maken we een afspraak om ze te komen ophalen en brengen we ze naar één van onze service en technologie centra in Duitsland of Noorwegen. U kan opteren voor een verzegelde ophaling om de gegevens extra te beschermen. Eenmaal aangekomen in ons technologie en service centre, zorgen we voor een gecertificeerde dataverwijdering aangepast aan de GDPR regels van uw bedrijf. Ook hiervoor zijn verschillende op maat gemaakte oplossingen mogelijk.

Onafhankelijke aanbieder

CHG-MERIDIAN is een gerenommeerde onafhankelijke aanbieder van life-cycle beheer van IT in de technologische, industriële en zorgsectoren. Met zo'n 1000 medewerkers biedt CHG-MERIDIAN haar klanten uitgebreide ondersteuning voor hun technologische infrastructuur. De groep heeft  37 filialen in 25 landen over de hele wereld.


30-11-2018 - CHG