Décisions algorithmiques: mieux vaut responsabiliser qu'informer
Qu’elles soient publiques ou privées, les institutions et les entreprises s’expriment de plus en plus à travers des décisions algorithmiques. Même si les décisions prises sur la base exclusive d’un traitement automatisé présentent des risques que la science n’a pas encore confirmés, les recherches récentes indiquent que certaines discriminations pourraient en résulter. Le projet visant à réviser la loi sur la protection des données veut adresser les possibles conséquences négatives découlant de telles décisions. Cependant, ni la solution prévue par le projet consistant à exiger plus de transparence en matière d’algorithmes, ni son renvoi au Code civil en ce qui concerne les prétentions de la personne concernée par une décision automatisée ne constitue un outil approprié pour protéger cette dernière contre une possible violation de ses droits fondamentaux. La protection, sur la base du principe de précaution, des personnes ciblées ainsi que la responsabilisation, sur la base d’une règle spécifique, de ceux qui prennent les décisions sont deux propositions auxquelles il convient de réfléchir.