by Online Marketing


인종에 관련된 데이터가 없는 의료시스템에서 '인종 차별'이 일어났었다고 2019년 10월에 공개되었습니다. 이 문제에 상원의원들이 개선을 위한 모색을 하고 있습니다만, 문제 해결은 매우 어려운 것 같습니다.

Booker Wyden FTC Letter
https://www.scribd.com/document/437955271/Booker-Wyden-FTC-Letter

Booker Wyden FTC Letter

Letter to FTC follows disturbing revelations of flawed algorithms impacting care for black patients

www.scribd.com



Racial bias in health care algorithms : there 's no quick fix - The Verge
https://www.theverge.com/2019/12/4/20995178/racial-bias-health-care-algorithms-cory-booker-senator-wyden

There’s no quick fix to find racial bias in health care algorithms

How are health companies and regulators monitoring health care algorithms for bias?

www.theverge.com


사이언스에 게재된 논문의 내용은, 미국의 의료시스템에서 활용되는 의료 알고리즘에서 흑인 환자의 치료에 대한 수요가 비흑인 환자에 비해 과소평가되는 바이어스가 있다는 것입니다. 시스템 구축에 사용된 데이터는 인종 정보가 포함되지 않았지만, 의료비를 데이터로 이용한 영향으로, 고액의 치료를 받지 못하는 흑인 환자에 대해 바이어스가 발생한 결과가 나왔습니다.

이에 따라 코리 부커 상원의원과 론 와이덴 상원의원은 연방거래위원회에 바이어스가 걸린 알고리즘에 의한 소비자 피해를 조사하고 있는지와, 의료 관련 기업에는 알고리즘의 조사는 진행하고 있는지 등을 물어보는 공개서한을 발표했습니다.


알고리즘의 바이어스를 검출하기 위한 도구는 존재하고 있지만, 사이언스 게재 논문의 공동 저자이며 브리검 앤 여성병원의 브라이언 파워 씨는 "도구를 사용해도 바이어스의 잠재적인 원인을 제거할 수 없으며, '어떤 알고리즘에도 적용할 수 있는 하나의 해결 방법'이라는 것도 없다"라고 말합니다. 이번에 문제가 된 의료 알고리즘이 의료비를 질병의 지표로 했던 것처럼 대리 지표를 이용하는 알고리즘은 보다 신중한 검토가 필요하며 대리 지표의 바이어스는 개별적으로 평가해야 한다고도 덧붙입니다.

브루킹스 연구소의 니콜 터너 씨도 도구는 구축 방법의 문제점 특정에 도움이 되지 않는다며 바이어스 제거는 의료시스템, 의사, 알고리즘 개발 그룹 등 이용자 간의 연계가 필요하다고 말합니다.

이전부터 인간이 만든 문서를 대량으로 학습시키면 AI는 편견과 차별을 배우는 것이라고 지적되고 있었으며 이처럼 문제의 해결은 쉽지 않을 것 같습니다.

Posted by 말총머리
,