Introductie tot Artificial Intelligence, Machine Learning en Deep Learning

Ergens vorige jaar kreeg ik de mogelijkheid om de wereld van AI (kunstmatige intelligentie) in te duiken. En al lijkt het moeilijk om in het kort hier iets relevants over te zeggen, is dat zeker niet het geval. De experimenten die aan bod kwamen gaven zeer goede inzichten.

Vooral waar de inzet van AI en data gebruikt kan worden voor onze dagelijkse praktijken. Maar AI is een groot domein en concepten als AI, Machine Learning en Deep Learning zijn niet een-en-hetzelfde. Het is belangrijk om te begrijpen wat de verschillen zijn en hoe ze toegepast worden.

The spectrum of artificial intelligence

Artificial Intelligence

De prachtige taal van wiskunde, statistiek, logica en onze dromen over de toekomst. AI in de definitie kenmerkt een systeem dat de karakteristieken van menselijke intelligentie vertoont. We noemen dit ook wel “General (algemene) AI”. Het wordt gedefinieerd als het vermogen taken of beredenering uit te voeren op een manier die gelijk is aan hoe wij dit als menselijk doen. Wat we hierin precies aan kunnen duiden als ‘intelligentie’ staat al decennia ter discussie, maar het begrip “intelligentie” is een essentieel onderdeel in de officiële definitie van AI.

Daarnaast roept AI ook de vraag op of het ethisch verantwoord is, maar dat is gelukkig een andere discussie. Het idee van AI stamt al uit de tijd van de oude Grieken, namelijk in de vorm van een mechanische man, die ontworpen zou zijn om het menselijke gedrag na te bootsen.
Vandaag de dag onderkent men twee soorten AI: toegepast en algemeen. Toegepaste AI wordt ook wel eens aangeduid als smalle (narrow) AI. Dit staat voor alle technologie die taken op nagenoeg dezelfde wijze uit kan voeren als mensen. Of mogelijk zelfs beter. Denk bijvoorbeeld aan automatisch rijden, gezichtsherkenning en in aandelen handelen.

Algemene AI heeft lang voornamelijk een theoretisch benadering gehad, namelijk dat iedere taak uitgevoerd kan worden. En het is juist bij deze laatste vorm waar tegenwoordig de meest interessante ontwikkelingen plaatsvinden.

 

Machine Learning

De term Machine Learning (ML) wordt vaak gebruikt in plaats van Artificial Intelligence. Dit is niet terecht. ML is geen synoniem maar een onderdeel van AI (een subset). Het hoofddoel van Machine Learning is het creëren van algoritmes die output genereren op basis van input, met behulp van statistische analyses. Over het algemeen gezien automatiseert het dus het bouwen van analytische modellen. Machine Learning wordt meestal ingezet om patronen te ontdekken in grote datasets en daar de output op af te stemmen. Als je online shopt worden bijvoorbeeld ook producten aangeboden die passen bij een aankoopprofiel dat past bij jouw als persoon. Grofweg zijn dit resultaten van statistische analyse, waar een grote wiskundige basis onder ligt.

Machine Learning kent daarbij nog 2 sub varianten: 1) supervised (gecontroleerde) ML en 2) unsupervised (ongecontroleerde) ML. Het onderscheidt tussen deze 2 vormen wordt gemaakt afhankelijk van het wel of niet voorzien van labels aan de data die wordt gebruikt voor het leerproces (patroon zoeken) om tot een algoritme te komen. Simpel gezegd geven we als mensen bij supervised ML mee wat welke data betekend en hoe relevant deze is en bij unsupervised laten we dit helemaal over aan het systeem, deze bepaald zelf de relevantie van bepaalde data in het algoritme.

Er bestaat ook een hybride vorm genaamd Semi-Supervised Learning. Op dit onderscheid zal in volgende blogs verder worden ingegaan. Voor nu richten we ons op Deep Learning als een categorie binnen Machine Learning, waar bovenstaande groepen bij aan bod komen.

 

Deep Learning

Machine Learning heeft enkele fundamentele aspecten genomen van Artificial Intelligence en zet deze vervolgens in om reële problemen op te lossen. Dit lijkt erg op hoe mensen soortgelijke problemen aanpakken. Er wordt namelijk gebruik gemaakt van het principe van neurale netwerken. Neurale netwerken zijn ook de bouwblokken van het menselijk brein.

Het principe is heel vergelijkbaar met hoe mensen leren: Eerst observeert het systeem wat er gebeurd, om vervolgens te redeneren en tot een conclusie te komen. Het redeneren hierin wordt gedaan op basis van wat het systeem ‘leert’ uit voorbeelden; hoe meer voorbeelden, des te accurater de conclusies. Net zoals bij een pasgeboren kind. Als wij geboren worden zijn onze herinneringen nog blanco. Zodra we het gezicht van hun ouders zien, beginnen we pas met deze te leren herkennen. In het begin zullen we fouten maken, maar naarmate tijd verstrijkt worden we hierin steeds beter. Dit komt omdat we steeds beter leren te ‘herkennen’ op basis van wat we al ervaren hebben en weten (opgeslagen hebben). Zo leren we onze ouders bijvoorbeeld ook te herkennen aan hun stem.

En als we ouder worden werkt dit precies hetzelfde met taal, cijfers, letters en vervolgens leren lezen en schrijven. Alles draait om patroonherkenning!

 

Verbind de losse eindjes

Om het bovenstaande te kunnen gebruikt Deep Learning een lagenstructuur van algoritmes, een Artificial Neural Network dat is gemodelleerd naar de werking van het menselijke brein. Neuronen, axonen en dendrieten kunnen als mathematische functies geprogrammeerd worden, met aanpasbare coëfficiënten. Deze worden steeds weer bijgewerkt tijdens het leerproces van het systeem. Vergelijkbaar met het eerdere voorbeeld over ons eigen leerproces. In feite zijn het niet meer dan knopen (mathematische functies) in een netwerk. Input reist de paden in dit netwerk af, waarbij elke knoop een waarde zal krijgen, welke verder doorgegeven wordt. Hoe een knoop waardes behandeld hangt af van de voornoemde coëfficiënten. Uiteindelijk zijn er knopen die output genereren vanuit het systeem. Deze waardes dienen geanalyseerd te worden om voorspellingen te maken. Dit klinkt eenvoudig, maar dat is het niet, omdat elk stukje data numeriek identificeerbaar moet zijn. De structuur (als die er al is) en relaties tussen complexere data structuren moeten behouden blijven tijdens deze transitie. Als alles adequaat ingericht is, kunnen de proeven beginnen. Hierbij worden netwerk architectuur, knoop indicatoren, functies en nog meer bijgesteld om tot de juiste output te komen. Er wordt dus steeds bijgesteld totdat consistent tot de juiste conclusie gekomen wordt.

 

In een notendop

Kort gezegd;

  • Wat? Alles wat we elke dag doen;
  • Hoe? Door data te verzamelen en patronen te ontdekken;
  • Waarom? Het optimaliseren van processen.

Wat dit betreft citeer ik Sherlock Holmes graag als concluderende woorden: “De wereld hangt samen van levens, waarbij elke draad een andere kruist. Wat wij voorgevoel noemen, is slechts een beweging in het web. Als jij je met elke draad zou verenigen, dan zou de toekomst geheel te voorspellen zijn. Zo zeker als wiskunde.

 

Download ons ebook ‘Maak ruimte voor innovatie met low-code en de kracht van business rules’ om meer te leren over hoe jouw bedrijf een einde kan zetten achter oncontroleerbare IT.
Tip! download dit ebook

Als je vragen hebt over zaken als kunstmatige intelligentie, machine Learning of deep learning, neem dan contact met ons op, of bel: (0)35 699 06 99. Wij helpen je graag verder.

Geschreven door: USoft

Gerelateerde artikelen

Podcast: Hoe behaal je doelen met low-code?

Podcast: Hoe behaal je doelen met low-code?

De opkomst van low-code zal je niet ontgaan zijn. Low-code platforms zijn de toekomst van applicatieontwikkeling. Maar hoe behoud je het overzicht? Onze CEO Hans Canisius sloot zich aan bij Techzine's podcast 'Techzine Talks' om met andere vakgenoten over low-code te...