Heeft u een drukke week achter de rug? Ligt uw project op schema voordat u het weekend ingaat? Met Microsoft 365 Copilot krijgt u een overzicht. Met slechts één opdracht ziet u Teams-chats en e-mails die relevant zijn voor uw project.
Zo werkt het:
- Ga naar https://m365.cloud.microsoft/
- Log in met uw Microsoft 365 Copilot account (of blijf ingelogd).
- Klik op Copilot.
- Gebruik een van de volgende prompts en klik op Verzenden:
- Wanneer is mijn volgende [onderwerp]-vergadering?
- Geef me een beknopte samenvatting van recent nieuws over [product of bedrijf].
- Wat zijn de deadlines die in /[bestand] worden genoemd?
Kunstmatige intelligentie (AI) speelt een steeds grotere rol in ons dagelijks leven en maakt veel taken eenvoudiger. Tools zoals ChatGPT zijn enorm populair, maar AI loopt in de toekomst mogelijk tegen een groot probleem aan: model collapse. Dit fenomeen ontstaat wanneer AI-modellen getraind worden op data die door andere AI-systemen is gegenereerd, wat kan leiden tot een vicieuze cirkel van steeds lagere kwaliteit en minder betrouwbare resultaten.
AI-modellen worden getraind op enorme hoeveelheden data, zoals teksten en afbeeldingen, om patronen te herkennen en voorspellingen te doen. Deze data komt vaak van het internet, maar hoogwaardige data raakt op. Dit probleem wordt versterkt doordat een groot deel van beschikbare data al van lage kwaliteit is of door AI is gemaakt. Wanneer modellen steeds vaker hun eigen gegenereerde data hergebruiken, verliezen ze hun vermogen om complexe en accurate informatie te produceren. Het gevolg is dat modellen fouten gaan maken die niet eenvoudig te corrigeren zijn. Dit kan uiteindelijk leiden tot een volledige instorting van het model.
Model collapse brengt serieuze risico’s met zich mee. Niet alleen kunnen bedrijven verkeerde beslissingen nemen door onbetrouwbare resultaten, maar ook kunnen vooroordelen en misrepresentaties in datasets worden versterkt, met negatieve gevolgen voor minderheden en andere kwetsbare groepen. Daarnaast kan de groeiende afhankelijkheid van AI-modellen ertoe leiden dat informatie op het internet minder betrouwbaar wordt.
Om dit te voorkomen, is het cruciaal dat AI toegang houdt tot door mensen gemaakte, kwalitatieve data. Dit kan door data die nu ontoegankelijk is, te ontsluiten en bestaande AI-data te evalueren op kwaliteit. Met de juiste maatregelen kan AI blijven bijdragen aan innovatie, zonder dat model collapse een onoverkomelijk obstakel wordt.
Gebruik Microsoft 365 Copilot in Outlook om lange e-mailgesprekken samen te vatten. Zo ziet u snel wat belangrijk is en wat kan wachten.
Zo doe je het
- Open uw Outlook-inbox.
- Selecteer een e-mailbericht dat onderdeel is van een uitgebreide thread.
- Klik op Samenvatting door Copilot
- Indien de samenvatting genummerde referenties bevat, klikt u op een nummer om naar de bijbehorende e-mail in de thread te navigeren.
Hoe gebruiken mediaprofessionals (generatieve) AI-tools in hun werk? De AI Media Barometer geeft inzicht in dit actuele thema via een survey bij meer dan 550 professionals én diepgaande interviews.
𝗕𝗲𝗹𝗮𝗻𝗴𝗿𝗶𝗷𝗸𝘀𝘁𝗲 𝗯𝗲𝘃𝗶𝗻𝗱𝗶𝗻𝗴𝗲𝗻:
• 𝗕𝗿𝗲𝗲𝗱 𝗴𝗲𝗯𝗿𝘂𝗶𝗸: 9 op de 10 professionals gebruikt AI in het werk, met bijna 1 op de 5 dagelijks en de helft minstens wekelijks.
• 𝗭𝗲𝗹𝗳𝗯𝗲𝗲𝗹𝗱 𝘃𝘀. 𝗿𝗲𝗮𝗹𝗶𝘁𝗲𝗶𝘁: Professionals schatten hun AI-competenties hoog in, maar denken vaak dat collega’s AI minder gebruiken dan zijzelf.
• 𝗜𝗺𝗽𝗮𝗰𝘁: 30% geeft aan dat AI hun werk al heeft veranderd, vooral op het vlak van efficiëntie, inspiratie en creativiteit.
𝗨𝗶𝘁𝗱𝗮𝗴𝗶𝗻𝗴𝗲𝗻 𝗲𝗻 𝘇𝗼𝗿𝗴𝗲𝗻:
Professionals maken zich zorgen over kwaliteit, ethiek, privacy, werkgelegenheid en de milieu-impact van AI. Daarbij missen velen duidelijke richtlijnen binnen hun organisatie.
𝗗𝗲𝗺𝗼𝗴𝗿𝗮𝗳𝗶𝘀𝗰𝗵𝗲 𝘃𝗲𝗿𝘀𝗰𝗵𝗶𝗹𝗹𝗲𝗻:
Leeftijd speelt een belangrijke rol: jongere professionals omarmen AI sneller en zien meer waarde in het gebruik ervan.
𝗪𝗮𝘁 𝗯𝗲𝘁𝗲𝗸𝗲𝗻𝘁 𝗱𝗶𝘁 𝘃𝗼𝗼𝗿 𝗼𝗿𝗴𝗮𝗻𝗶𝘀𝗮𝘁𝗶𝗲𝘀?
De inzichten onderstrepen het belang van transparantie, duidelijke richtlijnen en een inclusieve aanpak bij de implementatie van AI op de werkvloer.
Bron: https://ahscdn.be/sites/default/files/2024-11/AI-Media-Barometer-2024.pdf
StudyFetch zet documenten, notities, video’s en audio om in handige studiehulpmiddelen zoals flashcards, quizzen, toetsen en meer. De studiesets worden met behulp van AI gegenereerd op basis van het materiaal dat de gebruiker uploadt.
In 2024 maakt bijna een kwart (23%) van de Nederlanders van 12 jaar en ouder gebruik van programma’s met kunstmatige intelligentie (AI), zoals ChatGPT, om teksten, video’s of afbeeldingen te maken.
Jongvolwassenen tussen 18 en 25 jaar zijn de meest actieve gebruikers (49%), gevolgd door de groep van 25 tot 35 jaar (41%).
Volgens het Centraal Bureau voor de Statistiek (CBS) is het gebruik van AI de afgelopen twee jaar toegenomen.
Deze cijfers laten zien dat AI steeds meer geïntegreerd raakt in het dagelijks leven van Nederlanders, vooral onder jongere en hoger opgeleide groepen. Bron
Aansprakelijkheid voor onjuiste Chatbot-informatie In de zaak Moffatt tegen Air Canada vroeg Jake Moffatt om een gedeeltelijke terugbetaling van $880 voor een vlucht na het overlijden van zijn grootmoeder. Hij baseerde zich daarbij op onjuiste informatie van de Air Canada-chatbot, die suggereerde dat rouwtarieven met terugwerkende kracht konden worden aangevraagd.
Het Civil Resolution Tribunal oordeelde dat Air Canada aansprakelijk was voor nalatige misrepresentatie, omdat het bedrijf de juistheid van de informatie van de chatbot niet had gewaarborgd. Het verweer van Air Canada dat het niet verantwoordelijk zou zijn voor de uitspraken van de chatbot, werd verworpen. Moffatt kreeg een schadevergoeding van $812 toegekend; de overige vorderingen werden afgewezen.
Hoewel de zaak onder Canadees recht viel, is een vergelijkbare uitspraak in Europa waarschijnlijk. Bedrijven in Europa moeten daarom zorgen dat hun chatbots nauwkeurige informatie verstrekken. Bron
Een recent rapport van Accent en Trendwolves (juni 2024) onderzocht hoe Belgische werknemers (n = 2000) de opkomst van kunstmatige intelligentie (AI) op de werkvloer ervaren. Hoewel AI wordt gezien als een middel om efficiëntie te verhogen, zijn er zorgen over baanverlies, afname van menselijke interactie en privacy. Zo verwacht 75% van de Belgische werknemers dat AI banen zal doen verdwijnen, en 59% vreest dat AI de menselijke interactie op het werk zal verminderen. Daarnaast maakt 74% zich zorgen over de verwerking van persoonlijke gegevens door AI. Ondanks deze zorgen erkennen veel werknemers de voordelen van AI, zoals verbeterde efficiëntie, verhoogde veiligheid en ondersteuning bij besluitvorming. AI kan repetitieve taken automatiseren, de veiligheid op de werkvloer verbeteren door menselijke fouten te verminderen, en werknemers helpen bij stressmanagement. Het rapport benadrukt het belang van een mensgerichte benadering van AI-implementatie, waarbij bedrijven transparant communiceren, ethische richtlijnen volgen en werknemers ondersteunen in hun aanpassing aan de veranderende werkomgeving. Deze aanpak kan helpen om het potentieel van AI te maximaliseren, terwijl de zorgen van werknemers worden aangepakt en hun talenten worden versterkt. Bron: https://go.accentjobs.be/whitepaper-ai-en-wellbeing/
Lexie: een interactieve AI-hologram als onderwijsassistent Recent is Lexie (https://mediahologram.nl/lexie-ai/), een innovatief AI-hologram, geïntroduceerd als hulpmiddel in het onderwijs. Ontworpen om lesuitval te verminderen en de betrokkenheid van leerlingen te vergroten, kan Lexie in verschillende talen communiceren en opdrachten uitvoeren. Dit hologram biedt docenten de mogelijkheid om visueel aantrekkelijke animaties te tonen, zoals landkaarten of 3D-modellen, waardoor complexe concepten op een begrijpelijke manier worden gepresenteerd. Lexie is volledig personaliseerbaar en wordt geleverd met een representatieve sokkel, die bijdraagt aan haar futuristische uitstraling. Via Lexie’s netwerk kunnen scholen educatieve modules delen, wat leidt tot een rijkere leeromgeving. Deze ontwikkeling opent de deur naar een breed scala aan innovatieve onderwijsmethoden, met als doel het onderwijs dynamischer en inspirerender te maken.
De Engelstalige website AI Prompt Library (https://aipromptlibrary.org/) biedt een uitgebreide verzameling vooraf geschreven prompts voor diverse onderwijsdoeleinden, bedoeld om leerkrachten te voorzien van flexibel aanpasbare prompts voor AI-modellen.
AI for education (https://www.aiforeducation.io/) geeft AI-trainingen voor onderwijspersoneel, maar op hun website is ook gratis materiaal beschikbaar: cursus, webinars, promptsbibliotheek en downloadbare bestanden.
There’s An AI For That (https://theresanaiforthat.com) is een uitgebreide database met duizenden AI-tools voor honderden verschillende taken. De database wordt dagelijks bijgewerkt en wordt gebruikt door meer dan 500.000 mensen. Het biedt een slimme AI-zoekfunctie om gebruikers te helpen de beste AI-tools te vinden voor elk gebruiksscenario.
FraudGPT In de duistere wereld van cybercrime is er een nieuwe speler op het toneel: FraudGPT, een geavanceerd AI-hulpmiddel dat specifiek is ontwikkeld om cybercriminelen een handje te helpen. Deze tool maakt gebruik van een krachtig taalmodel om een scala aan kwaadaardige elementen te genereren, variërend van schadelijke code tot bedrieglijke phishing-pagina’s. Sinds zijn verschijning op het donkere web en Telegram in juli 2023, heeft FraudGPT de aandacht getrokken als een bedreigende chatbot die de toekomst van onze online veiligheid op losse schroeven zet.
De werking van FraudGPT is slim en doortrapt. Het begint met het doorgronden van de opbouw van verschillende soorten oplichtingspraktijken. Vervolgens past het deze kennis toe om teksten te genereren die naadloos dezelfde structuur volgen. Bijvoorbeeld, als FraudGPT getraind is met een dataset van phishing-e-mails, zal het al snel het klassieke sjabloon van zo’n misleidende mail herkennen en repliceren. Maar daar blijft het niet bij. Deze slimme AI kan zelfs reageren op input van gebruikers, zich aanpassen aan het verloop van een gesprek en psychologische triggers inzetten om potentiële slachtoffers te manipuleren.
Hoe kunnen we onszelf beschermen tegen deze groeiende dreiging van AI-gedreven aanvallen, zoals die van FraudGPT? Het antwoord ligt in alertheid, het handhaven van robuuste cybersecurity-maatregelen en het ethisch en verantwoordelijk gebruik van technologie. Hier volgen enkele strategieën die je kunt inzetten:
- Educatie: Zorg ervoor dat zowel jij als je team getraind zijn om verdachte phishing-pogingen te herkennen en te rapporteren. Let op afzenders, onderwerpregels, inhoud en links voordat je ergens op klikt of reageert.
- Beveiliging: Bescherm je accounts en gegevens met sterke wachtwoorden, maak gebruik van multifactor-authenticatie en versleuteling.
- Updates: Houd je software, antivirusprogramma’s en firewall up-to-date om potentiële zwakke plekken te dichten.
Met FraudGPT als een opkomende bedreiging, is het essentieel om voorbereid te zijn en proactieve stappen te ondernemen om jezelf en je digitale wereld te beschermen. Alleen door waakzaam te blijven en technologie op een ethische en verantwoorde manier te benutten, kunnen we een solide verdediging opbouwen tegen deze evoluerende gevaren.
Have I Been Pwned (https://haveibeenpwned.com/) is een website die controleert of jouw e-mailadres, wachtwoord, Gsm-nummer, enzovoort gestolen werd door cybercriminelen. Als deze gegevens werden gestolen, dan is het mogelijk dat cybercriminelen op jouw accounts kunnen inloggen. Op deze website kan je controleren of jouw gegevens voorkomen in een gegevenslek en waar dat gebeurd is. Als je wil, kan je ook een bericht krijgen als jouw e-mailadres in de toekomst nog eens gestolen wordt.
Het is belangrijk om een sterk wachtwoord te hebben en niet hetzelfde wachtwoord te gebruiken voor verschillende accounts. Zo kunnen cybercriminelen niet op al jouw accounts inloggen als ze jouw wachtwoord kennen van één account.