De FBI maakt verzekeraars duidelijk dat AI niet kan worden gebruikt om gezondheidszorgdekking te weigeren

De FBI maakt verzekeraars duidelijk dat AI niet kan worden gebruikt om gezondheidszorgdekking te weigeren
In zoomen / Een verpleeghuisbewoner wordt door een verpleegkundige door de gang geduwd.

De Centers for Medicare & Medicaid Services (CMS) hebben verduidelijkt dat zorgverzekeraars geen algoritmen of kunstmatige intelligentie kunnen gebruiken om zorg te bepalen of dekking te weigeren aan leden van Medicare Advantage-plannen. Er is een memo verzonden naar alle Medicare Advantage-verzekeraars.

De memo – die is opgemaakt als een veelgestelde vraag over de regels van het Medicare Advantage (MA)-plan – komt slechts enkele maanden nadat patiënten rechtszaken hebben aangespannen waarin ze beweren dat UnitedHealth en Humana een zeer gebrekkig, door AI aangedreven hulpmiddel gebruiken om zorg te weigeren aan oudere patiënten in MA-plannen. De rechtszaken, die de status van class action beogen, concentreren zich op hetzelfde hulpmiddel voor kunstmatige intelligentie, genaamd nH Predict, dat door beide verzekeraars wordt gebruikt en is ontwikkeld door NaviHealth, een dochteronderneming van UnitedHealth.

Volgens de rechtszaken maakt nH Predict strikte schattingen van hoe lang een patiënt postacute zorg nodig zal hebben in faciliteiten zoals verpleeghuizen en revalidatiecentra na een acuut letsel, ziekte of gebeurtenis, zoals een val of beroerte. Medewerkers van NaviHealth krijgen te maken met discipline als ze afwijken van schattingen, ook al komen deze vaak niet overeen met de aanbevelingen van voorschrijvende artsen of de Medicare-dekkingsregels. Terwijl MA-plannen bijvoorbeeld doorgaans tot 100 dagen gedekte zorg bieden in een verpleeghuis na een driedaags verblijf in het ziekenhuis, verblijven patiënten in het MA-plan van UnitedHealth met behulp van nH Predict zelden langer dan 14 dagen in verpleeghuizen voordat ze een betaling ontvangen. ontkenning, zo beweren de rechtszaken.

READ  Het VK zal de Canarische Eilanden opnemen op zijn groene reislijsten

Specifieke waarschuwing

Het is onduidelijk hoe nH Predict precies werkt, maar naar verluidt gebruikt het een database van 6 miljoen patiënten om zijn voorspellingen te ontwikkelen. Volgens mensen die bekend zijn met het programma vertegenwoordigt het echter slechts een klein aantal patiëntfactoren, en geen volledig beeld van de individuele omstandigheden van een patiënt.

Volgens de CMS-memo is dit een duidelijk nee-nee. Voor dekkingsbeslissingen moeten verzekeraars “de beslissing baseren op de omstandigheden van de individuele patiënt, dus een algoritme dat de dekking bepaalt op basis van een grotere dataset in plaats van de medische geschiedenis van een individuele patiënt, aanbevelingen van artsen of klinische observaties zal niet compatibel zijn.” Boeken voor contentmanagementsystemen.

CMS presenteerde vervolgens een hypothese die consistent was met de omstandigheden uiteengezet in de rechtszaken, en schreef:

In een voorbeeld waarbij sprake is van een beslissing om postacute zorg te beëindigen, kan een algoritme of softwaretool worden gebruikt om aanbieders of MA-plannen te helpen bij het voorspellen van de waarschijnlijke verblijfsduur, maar deze voorspelling alleen kan niet worden gebruikt als basis voor het beëindigen van post-acute zorg. diensten voor acute zorg. Diensten voor acute zorg.

In plaats daarvan, zo schreef CMS, moet een verzekeraar de dekking beëindigen als het individuele geval van de patiënt opnieuw wordt beoordeeld en moet de weigering gebaseerd zijn op publiekelijk gepubliceerde dekkingscriteria op een niet met een wachtwoord beveiligde website. Bovendien moeten verzekeraars die zorg weigeren “een specifieke en gedetailleerde uitleg geven waarom de diensten niet langer redelijk en noodzakelijk zijn of niet langer gedekt zijn, inclusief een beschrijving van de toepasselijke dekkingsnormen en -regels.”

READ  De Deense minister van Defensie wisselt van positie met de minister van Economische Zaken, dagen nadat hij F-16's aan Oekraïne heeft geschonken

In de rechtszaken beweerden patiënten dat wanneer hun onverwacht ten onrechte de dekking voor door artsen aanbevolen zorg werd geweigerd, de verzekeraars hen geen volledige uitleg gaven.

toewijding

Over het algemeen vindt CMS dat AI-tools Kan Ze kunnen door verzekeraars worden gebruikt bij het beoordelen van de dekking, maar eigenlijk alleen als controle om er zeker van te zijn dat de verzekeraar de regels volgt. “Alleen het algoritme of de softwaretool mag worden gebruikt om de nauwkeurigheid te garanderen” met de dekkingsnormen, schreef CMS. Omdat “openbaar gepubliceerde dekkingscriteria statisch en onveranderlijk zijn, kan AI niet worden gebruikt om dekkingscriteria in de loop van de tijd te veranderen” of om verborgen dekkingscriteria toe te passen.

CMS vermijdt elke discussie over wat telt als kunstmatige intelligentie door een brede waarschuwing te geven over algoritmen en kunstmatige intelligentie. “Er worden veel overlappende termen gebruikt in de context van snel evoluerende softwaretools”, schreef CMS.

Algoritmen kunnen een kritisch stroomschema omvatten van een reeks ‘als-dan’-uitspraken (bijvoorbeeld: als een patiënt een bepaalde diagnose heeft, moet deze een test kunnen ondergaan), maar ook voorspellende algoritmen (die de waarschijnlijkheid van een toekomstige opname voorspellen, bijvoorbeeld). Kunstmatige intelligentie is gedefinieerd als een machinegebaseerd systeem dat, voor een gegeven reeks door mensen gespecificeerde doelen, voorspellingen, aanbevelingen of beslissingen kan doen die van invloed zijn op echte of virtuele omgevingen. AI-systemen gebruiken machine- en menselijke input om betekenis te geven aan echte en virtuele omgevingen; Het samenvatten van deze percepties in modellen door middel van geautomatiseerde analyse; Gebruik typische heuristieken om informatie of actiekeuzes te formuleren.

CMS heeft ook publiekelijk zijn bezorgdheid geuit over het feit dat het gebruik van dit soort instrumenten discriminatie en vooroordelen zou kunnen bevorderen Het is al gebeurd met raciale vooroordelen. CMS waarschuwde verzekeraars ervoor te zorgen dat alle AI-tools of algoritmen die zij gebruiken “de bestaande vooroordelen niet bestendigen of verergeren, of nieuwe vooroordelen introduceren.”

READ  Moody's over de impact van door COVID geleide verstoringen op infrastructuurbedrijven in India

Hoewel de memo over het algemeen een expliciete verduidelijking was van de bestaande MA-regels, heeft CMS uiteindelijk verzekeraars ervan op de hoogte gebracht dat het zijn auditactiviteiten uitbreidt en “nauwlettend zal monitoren of MA-plannen interne dekkingsnormen gebruiken en toepassen die niet in “Medicare” voorkomen. Wetten.” Niet-naleving kan resulteren in waarschuwingsbrieven, corrigerende actieplannen, financiële boetes en boetes voor registratie en marketing.

You May Also Like

About the Author: Tatiana Roelink

'Webgeek. Wannabe-denker. Lezer. Freelance reisevangelist. Liefhebber van popcultuur. Gecertificeerde muziekwetenschapper.'

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *