Onderzoek met een AI-muziekinstallatie
Hitloop is een experimentele muziekinstallatie die onderzoekt hoe groepen mensen samen AI-beslissingen kunnen beïnvloeden. Deze installatie gebruikt muziek als metafoor voor AI-besluitvorming, om te laten zien en ervaren hoe menselijk toezicht werkt. Hitloop bestaat uit een AI-systeem, ontwikkeld met open-source technologie, en zelfgemaakte handheld controllers.
Hoe werkt het?
In principe kan de Hitloop AI voor allerlei dance-genres muziek genereren. Voor de ochtendrave van 12 juni op Nemo heeft een menselijke muziekproducer 20 dromerige housetracks gecomponeerd. Met deze tracks heeft het team een AI-model getraind om een oneindige stroom soortgelijke muziek te genereren. de kant opsturen. De menselijke DJ kan dit nog corrigeren. Sensoren in de controllers meten beweging, positie en agitatie van iedere danser. Door gezamenlijke dansbewegingen kan het publiek de beat, pulse en de melodie een bepaal
Hitloop is ontwikkeld en gebouwd door onderzoekers van het HvA lectoraat Responsible IT, samen met studenten en docenten van de HvA Master Applied AI, ICT en CMD. Zij ontwikkelden de techniek en de controllers, de User Experience en de muziek.
Het AI-muziekgedeelte van de installatie werkt met het Magenta platform, en gebruikt de latent space model -aanpak om nieuwe muziek te (her)genereren. In een eerder experiment gebruikte Hitloop de open-source applicatie WAIVE van Thunderboom Records.
Onderzoek op festivals
Kunstmatige Intelligentie is een ingewikkeld onderwerp. De HvA onderzoekgroep Responsible IT probeert de werking van AI begrijpelijk en transparant te maken. Dat doen de onderzoekers met “gewoon” academisch onderzoek, en met interactieve kunstwerken waarmee de werking van AI tastbaar en ervaarbaar wordt gemaakt. In januari 2025 heeft het Lectoraat een kunstinstallatie getest bij Eurosonic/Noorderslag (ES/NS), waar AI, het publiek en een DJ elkaar aanvullen, proberen we verschillende niveaus van menselijke controle over AI-besluitvorming te visualiseren. Deze test is mogelijk gemaakt door Regieorgaan SIA, Innofest, ES/NS en Thunderboom Records.
Onderzoeksvraag: wie heeft de controle, mensen of AI?
Kunstmatige intelligentie maakt fouten. Om deze fouten te corrigeren, kunnen mensen AI-systemen trainen en de controle overnemen wanneer het misgaat. Dit wordt Human In The Loop genoemd: overzicht over de beslissingen van een AI-systeem door minstens één mens, om de effecten ervan te beïnvloeden.
Menselijk toezicht is essentieel om risico’s te verkleinen bij AI-toepassingen met een hoog risico, zoals in de gezondheidszorg, sociale diensten en het strafrecht. Het wordt aanbevolen als een waarborg tegen de negatieve effecten van deze AI-toepassingen. Richtlijnen en wetten, zoals de EU AI Act, benadrukken de noodzaak van effectief menselijk toezicht, maar bieden geen duidelijke instructies voor de implementatie ervan.
Echter, menselijk toezicht kent aanzienlijke uitdagingen en kan onbetrouwbaar zijn. Mensen die AI trainen maken fouten, zijn inconsistent en kunnen bevooroordeeld zijn. Het is voor mensen moeilijk om AI-uitkomsten te beoordelen en te corrigeren, vooral in complexe situaties, wat leidt tot slecht getrainde AI. Dit benadrukt de noodzaak voor betere strategieën om mensen hierbij te ondersteunen. Ons onderzoek richt zich op het ontwikkelen van nieuwe en meer mensgerichte benaderingen van toezicht.

Team
- Yuri Westplat • y.westplat@hva.nl
- Marise van Noordenne
- Arthur van Schravendijk
- Rover Vos
- Bas Pijls
- Nicky Heijmen