Ansvar, gennemsigtighed og tillid er fundamentalt, når sundhedsvæsenet i disse år integrerer AI-løsninger. Derfor sætter Dataetisk råd i den kommende tid en række initiativer i gang, der skal undersøge de dataetiske spørgsmål, der følger med de nye teknologiske muligheder.
Den moderne arbejdsplads præges i stigende grad af dataindsamling, som kan benyttes til et hav af formål, som uden tvivl vil revolutionere og optimere danske arbejdspladser. Heriblandt findes indsamling og anvendelse af data om den enkelte medarbejder, som uundgåeligt vil bringe den ansatte i en sårbar position og ændre på magtbalancer og arbejdskulturer. For at kunne sikre forsvarlig anvendelse af nye teknologiske værktøjer på arbejdsmarkedet, vil både ansatte og ledere have gavn af at være tilstrækkeligt klædt på til at håndtere de medfølgende udfordringer.
Dataetisk Råd offentliggør i dag en ny rapport om politiets brug af ansigtsgenkendelse. Rådet konkluderer, at teknologien i nogle tilfælde kan være dataetisk forsvarlig – men kun i fire snævre og tydeligt afgrænsede brugsscenarier. Samtidig anbefaler rådet et klart forbud mod de mest indgribende former, herunder ansigtsgenkendelse i realtid i det offentlige rum og identifikation af personer i direkte fysisk interaktion med politiet.
Dataetisk Råd kommer i dag med seks konkrete anbefalinger til, hvordan digital aldersverificering kan indføres dataetisk forsvarligt i Danmark – med respekt for både børns beskyttelse og alles ret til privatliv.
Med fire konkrete anbefalinger sætter en ny rapport fra Dataetisk Råd fokus på, hvordan kunstig intelligens kan bruges ansvarligt og dataetisk forsvarligt i sundheds- og velfærdssektoren.
Politiet ønsker at anvende AI til at generere falsk børnemisbrugsmateriale i jagten på online kriminelle. Dataetisk Råd bakker op, men med en vigtig betingelse: AI-værktøjerne må ikke være trænet på ægte misbrugsmateriale.