Artificial Intelligence (AI) biedt fantastische mogelijkheden om debiteurklanten te beschermen tegen onnodige kosten en problematische schulden. Hoe gaan we daar op een goede manier mee om? Er zijn ethische kaders nodig voor de ontwikkeling en toepassingen van AI in credit management: Ethics by design.

De belangrijkste publicaties over dit onderwerp zijn door Luciano Floridi en Josh Cowls voor Harvard Data Science Review geconcentreerd in vijf kernprincipes voor ethische AI:

  1. Beneficence | Goed doen, bijdragen aan welzijn, waardigheid en duurzaamheid
  2. Non-maleficence | Geen kwaad doen, privacy respecteren, misbruik voorkomen
  3. Autonomy | Menselijke besliskracht om AI-beslissingen aan te passen
  4. Justice | Gerechtigheid, eerlijkheid, solidariteit, non-discriminatie
  5. Explicability | Hoe werkt het en wie is daar verantwoordelijk voor?

Hierna plaatsen we deze kernprincipes in de context van creditmanagementtoepassingen.

Goed doen

Het belangrijkste uitgangspunt voor de ontwikkeling en toepassing van AI is dat het gericht moet zijn op goed doen. Het moet voordelen opleveren voor het algemeen belang, de menselijke waardigheid beschermen en duurzaam bijdragen aan welzijn. Hoe vertaalt Goed doen zich naar credit management AI?

  • Om debiteurklanten te beschermen tegen stapelende schulden en oplopende kosten. Indirect levert dit duurzame voordelen op voor het algemeen belang. Minder sociale impact betaalt zich terug in het reduceren van de maatschappelijke kosten die (schuld)hulpverlening met zich meebrengt.
  • Zorgt voor bescherming van de menselijke waardigheid en het welzijn. Voorkomt dat debiteurklanten met onnodige en onverhaalbare kosten belast worden.
  • Ondersteunt een persoonlijke benadering van de debiteurklant door begrijpelijke incassocommunicatie, via het kanaal dat de klant effectief bereikt, met een boodschap die activeert en motiveert om te reageren.
  • Van een niet-kunner eisen dat die per omgaand de complete vordering voldoet, werkt averechts. Hulp aanbieden moet in dat geval de boodschap zijn. Voor een debiteurklant die niet in één keer kan betalen, wordt met behulp van AI een betalingsregeling voorgesteld die past bij de (wisselende) betaalcapaciteit van de debiteurklant.

Privacy respecteren, misbruik voorkomen en geen kwaad doen

Informatie kan in verkeerde handen terechtkomen en gebruikt worden om burgers te benadelen of te beperken. Wie controleert het algoritme? Kan het worden uitgezet? Hoe objectief is de voorspelling? Als er misbruik van wordt gemaakt, hoe stop je dat dan? Integratie van Privacy by design en Security by design bij de ontwikkeling van AI-modellen voor credit management voorkomt inbreuk en misbruik.

Privacy by design:

  • Minimaliseer de data en abstraheer persoonsgegevens.
  • Informeer de betrokkenen dat hun persoonsgegevens verwerkt worden.
  • Zorg voor toegankelijkheid om de eigen data in te zien en te verbeteren.
  • Garandeer privacyvriendelijke verwerking en toezicht.
  • Beperk de toegankelijkheid van de data op een need to know basis.

Security by Design:

  • Gescheiden opslag en verwerking van data, waardoor die afzonderlijk van elkaar geen betekenis hebben.
  • Registreer en controleer het gebruik en de gebruikers.
  • Controleer op kwetsbaarheden in de infrastructuur.
  • Stel objectief vast dat de beveiliging voldoet.

Borging door middel van certificering en externe audits voegt extra betrouwbaarheid toe dat er zorgvuldig met de data wordt omgegaan.

Autonomie | menselijke besliskracht om AI-beslissingen aan te passen

AI-voorspelling en werkelijke uitkomst liggen gemiddeld dicht bij elkaar. Maar gemiddeld goed, kan negatieve gevolgen hebben voor een individu. Een actuele gebeurtenis kan de voorspelling achterhalen. Menselijke besliskracht is onmisbaar om het voorspelmodel te corrigeren voordat het consequenties heeft voor de betrokkenen. AI houdt (meestal) geen rekening met een levensgebeurtenis die kortgeleden plaatsvond. Terwijl werkeloosheid of een echtscheiding grote impact kan hebben op de actuele betaalcapaciteit. Debiteurklanten kenmerken als persona is om die zelfde reden risicovol. Het houdt onvoldoende rekening met wisselende betaalcapaciteit door de tijd.

Gerechtigheid | eerlijkheid, solidariteit, non-discriminatie

Het ontwikkelen van AI-systemen is mensenwerk. Vooringenomenheid en de context van de datascientists kunnen een rol spelen. Onvoldoende representativiteit van de databestanden vormt een ander risico. In elke fase van het AI-project moeten de eerlijke uitkomsten van het AI-systeem worden geborgd:

  • Documentatie over de kwaliteit van de data. Hoe die is verkregen en beoordeeld op representativiteit, volledigheid, integriteit en actualiteit.
  • Een protocol voor het trainen, testen en valideren van het algoritme.
  • Een doordachte definiëring hoe de eerlijkheid en betrouwbaarheid wordt gemeten, hoe (vaak) dat gerapporteerd wordt en wie daar op C-niveau verantwoordelijk voor is.
  • Onafhankelijke beoordeling door gekwalificeerde derden.

Eerlijkheid, solidariteit en non-discriminatie vormen de uitgangspunten voor de drie meest gebruikte AI-creditmanagementtoepassingen:

Handelsinformatie
Ondersteund door AI voorspelt kredietinformatie wat een passende kredietlimiet is. Dat zorgt voor eerlijke handelstransacties en meer (gerealiseerde) omzet voor de leverancier. Het beschermt zowel de leverancier, de afnemer als de overige klanten.

Credit checks en achteraf betalen
Credit checks zorgen voor consumentenbescherming en beperken naast wanbetaling het risico op overkreditering. Dat moet op een eerlijke, transparante manier gebeuren en mag niet leiden tot discriminatie of uitsluiting.

Betaalcapaciteit voorspellen
Voorspelling van de betaalcapaciteit verandert op zichzelf niets aan de betalingsverplichting. AI helpt om een oplossing voor het betalingsprobleem te vinden. Met een betalingsregeling die past bij de betaalcapaciteit van de debiteur. Daarmee draagt het bij aan solidariteit met de betalende klanten en is het eerlijk naar de leverancier. Het respecteert andere (lopende) betalingsverplichtingen en draagt op die manier bij aan het voorkomen van problematische schulden.

Uitlegbaarheid | Hoe werkt het en wie is daar verantwoordelijk voor?

Uitlegbaarheid is de achilleshiel van AI. Door het gebruik van neurale netwerken en deep learning neemt de betrouwbaarheid en voorspelkracht toe. Maar de complexiteit eveneens, waardoor het bijna onmogelijk is om uit te leggen hoe de voorspelling tot stand kwam. Wie is verantwoordelijk als schade ontstaat door technologie die zelfstandig beslissingen neemt? Expliciete wetgeving ontbreekt vooralsnog. Vanuit een ethisch perspectief moet een organisatie verantwoordelijkheid nemen voor een AI-voorspelling die schade tot gevolg heeft en zich inzetten om herhaling te voorkomen.

Uitlegmodellen en -interfaces
Vanaf 2016 werkt DARPA [1] aan een project Explainable Artificial Intelligence (XAI). Hiervoor worden nieuwe machine learning systemen (uitlegmodellen) ontwikkeld die hun eigen rationale uitleggen en inzicht geven in de sterktes en zwaktes van het model. Daaraan worden uitleg-interfaces gekoppeld die dat op een menselijke, begrijpelijke manier vertalen voor de eindgebruiker. Helaas is er nog geen geautomatiseerde oplossing beschikbaar die AI-modellen begrijpelijk aan consumenten uitlegt.

Ten minste het doel van de AI-toepassing en de data-elementen [2] die hierbij gebruikt worden, moeten beschikbaar zijn voor de betrokkene. Naast de betrouwbaarheid van het algoritme. De berekende voorspelling moet logisch en begrijpelijk worden uitgelegd met de gebruikte data.

Correcties en aanpassingen, bijvoorbeeld met actuele data, kunnen op verzoek van de betrokkene worden aangebracht. Het moet voor de eindgebruiker duidelijk zijn waar hij/zij terechtkan als een AI-voorspelling onbedoeld en/of onterecht vervelende gevolgen heeft.

Een regelmatige en deskundige evaluatie van de (resultaten van de) AI-toepassing, met transparante, toegankelijke verslaglegging daarvan, is essentieel voor AI Ethics by design. Syncasso pleit ervoor om AI-toepassingen voor credit management te betrekken in de audits voor de ISO 27001 certificering.
Ga voor de complete artikelen naar syncasso.nl/aiethiek

[1] Defense Advanced Research Agency USA.
[2] Ook ingevolge de AVG.

Bron: Magazine De Credit Manager | 2020 nr 3