Elon Musk는 AI를 사용하여 우리를 운영하고 싶어하지만 전문가들은 ‘매우 나쁜’아이디어라고 말합니다.

0
27

AI를 사용하지 않는 것은 도구가 어떻게 훈련되는지에 대한 투명성 부족을 포함하여 여러 가지 방법으로 잘못 될 수 있다고 전문가들은 말합니다.

Elon Musk는 AI를 사용하여 우리를 운영하고 싶어하지만 전문가들은 ‘매우 나쁜’아이디어라고 말합니다.
Elon Musk는 수천 명의 미국 공무원을 해고했으며 인공 지능 (AI)에 의존하여 해당 작업을 수행 할 계획입니다. [File: Jose Luis Magana/AP Photo]

엘론 머스크 (Elon Musk)는 인공 지능을 사용하여 미국 정부를 운영 할 계획입니까? 그것은 그의 계획 인 것처럼 보이지만 전문가들은 그것이“매우 나쁜 생각”이라고 말합니다.

머스크는 자신의 정부 효율성 (DOGE)을 통해 수만 명의 연방 정부 직원을 해고했으며, 나머지 노동자들은 그 주에 달성 한 내용을 설명하는 5 개의 총알 포인트가있는 매주 이메일을 부서에 보내야한다고한다.

그 이유는 의심 할 여지없이 수십만 개의 이러한 유형의 이메일과 함께 Flood Doge가 될 것이기 때문에 Musk는 인공 지능에 의존하여 응답을 처리하고 누가 고용 해야하는지 결정하는 데 도움이됩니다. 이 계획의 일부는 또한 많은 공무원을 AI 시스템으로 대체하는 것입니다.

이러한 AI 시스템 중 어느 것이 어떻게 생겼는지 또는 미국 의회의 민주당 원이 채워야한다고 요구하는 것은 아직 명확하지 않지만, 전문가들은 연방 정부의 AI를 강력한 테스트와 이러한 도구를 검증하는 것이 비판적인 결과를 초래할 수 있다고 경고합니다.

광고

“AI 도구를 책임감있게 사용하려면 특정 목적을 염두에두고 설계해야합니다. 테스트하고 검증해야합니다. 펜실베이니아 대학교의 법과 정치 과학 교수 인 Cary Coglianese는 말합니다.

Coglianese는 AI가 자신의 직무에서 누가 종료되어야하는지에 대한 결정을 내리는 데 사용된다면, 그는 그 접근법에 대해“매우 회의적”이라고 말합니다. 그는 AI가 편향되고 다른 잠재적 인 문제에 대한 실수를 저지르는 실수가 매우 있다고 말합니다.

“매우 나쁜 생각입니다. 우리는 AI가 어떻게 그러한 결정을 내릴 것인지에 대해 아무것도 모릅니다. [including how it was trained and the underlying algorithms]미시간 대학교의 공공 정책 교수 인 Shobita Parthasarathy는 말합니다.

이러한 우려는 현재 정부, 특히 억만 장자 사업가이자 도널드 트럼프 미국 대통령의 긴밀한 고문 인 Musk와 함께 현재 정부를 막고있는 것 같습니다.

예를 들어, 미국 국무부는 AI를 사용하여 외국인의 소셜 미디어 계정을 스캔하여 비자를 취소하기 위해 하마스 지지자가 될 수있는 사람을 식별 할 계획입니다. 미국 정부는 이런 종류의 시스템이 어떻게 작동하는지에 대해 지금까지 투명하지 않았습니다.

감지되지 않은 피해

뉴욕 대학의 저널리즘 교수이자 인공 지능 전문가 인 Hilke Schellmann은“트럼프 행정부는 모든 비용으로 AI를 추구하는 데 정말로 관심이 있으며 AI의 공정하고 정당하며 ​​공평한 사용을보고 싶습니다. “감지되지 않은 많은 피해가있을 수 있습니다.”

광고

AI 전문가들은 AI의 정부 사용이 잘못 될 수있는 방법에는 여러 가지가 있다고 말합니다. 그래서 신중하고 양심적으로 채택해야합니다. 코글 리안은 네덜란드와 영국을 포함한 전 세계 정부는 실수를 저지르거나 편견을 보일 수있는 AI가 제대로 실행되지 않은 AI에 문제가 있었으며, 결과적으로 주민 복지 혜택을 잘못 거부했다.

미국에서는 미시간 주가 AI에 문제가 있었는데, 이는 수천 건의 사기 사건을 잘못 식별했을 때 실업 시스템에서 사기를 찾는 데 사용되었습니다. 거부 된 혜택 중 상당수는 여러 처벌에 부딪히고 사기로 기소되는 등 가혹하게 다루었습니다. 사람들은 체포되어 파산 신청을했습니다. 5 년이 지난 후, 주정부는이 시스템에 결함이 있음을 인정했으며 1 년 후 사기로 잘못 고발 한 주민들에게 2,100 만 달러의 환급을 받았습니다.

Parthasarathy는“대부분의 경우 공무원들은 이러한 기술을 구매하고 배포하는 공무원이 자신의 작동 방식, 편견 및 제한 및 오류에 대해 거의 알지 못합니다. “저소득층과 다른 소외된 지역 사회는 사회 복지 서비스를 통해 정부와 가장 접촉하는 경향이 있기 때문에 [such as unemployment benefits, foster care, law enforcement]그들은 문제가있는 AI에 의해 가장 영향을받는 경향이 있습니다.”

AI는 또한 법원에서 누군가의 가석방 자격과 같은 것을 결정하기 위해 법원에서 사용되었을 때 정부에서 문제를 일으켰거나 범죄가 발생할 가능성이있는 곳을 예측하는 데 사용될 때 경찰서에서 문제를 일으켰습니다.

광고

Schellmann은 경찰서에서 사용하는 AI는 일반적으로 해당 부서의 역사적 데이터에 대해 교육을 받았으며, 이로 인해 AI는 오랫동안 과도한 공동체, 특히 색상 커뮤니티를 추천 할 수 있다고 말합니다.

AI는 아무것도 이해하지 못합니다

잠재적으로 AI를 사용하여 연방 정부의 근로자를 대체하는 데있어 문제 중 하나는 정부에 특정 기술과 지식이 필요한 다양한 종류의 일자리가 있다는 것입니다. 법무부의 IT 담당자는 예를 들어 동일한 직책을 가지고 있어도 농무부와 매우 다른 직업을 가질 수 있습니다. 그러므로 AI 프로그램은 복잡하고 인간 노동자를 대체하는 데 평범한 일을하기 위해 복잡하고 고도로 훈련해야합니다.

“나는 당신이 사람들의 직업을 무작위로 삭감 할 수 있다고 생각하지 않고 [replace them with any AI]Coglianese는 말합니다. “그 사람들이 공연 한 작업은 종종 고도로 전문화되고 구체적입니다.”

Schellmann은 AI를 사용하여 예측 가능하거나 반복적 일 수있는 누군가의 업무의 일부를 수행 할 수 있지만 누군가를 완전히 대체 할 수는 없습니다. 여러 종류의 많은 일을하기 위해 올바른 AI 도구를 개발하는 데 몇 년을 보내려면 이론적으로 가능할 것입니다. 정부가 현재하고있는 것처럼 매우 어려운 과제입니다.

“이 근로자들은 AI가 아닌 문제에 대한 진정한 전문 지식과 미묘한 이해를 가지고 있습니다. AI는 실제로 ‘이해’를 ‘이해하지 못한다 “고 Parthasarathy는 말합니다. “역사적 데이터를 기반으로 패턴을 찾기 위해 계산 방법을 사용하는 것입니다. 그래서 그것은 유용성이 제한되어 있고 역사적 편견을 강화할 수 있습니다.”

광고

전 미국 대통령 조 비덴 (Joe Biden) 전 미국의 행정부는 2023 년에 정부에서 AI의 책임있는 사용과 AI가 어떻게 테스트되고 검증 될 것인지에 초점을 맞춘 행정 명령을 내렸다. 그러나이 명령은 1 월 트럼프 행정부에 의해 철회되었다. Schellmann은 이것이 AI가 정부에서 책임감있게 사용될 가능성이 적거나 연구자들이 AI가 어떻게 활용되고 있는지 이해할 수있을 가능성이 줄었습니다.

이 모든 것이 AI가 책임감있게 개발되면 매우 도움이 될 수 있다고 말했습니다. AI는 반복적 인 작업을 자동화하여 근로자가 더 중요한 것들에 집중하거나 근로자가 어려움을 겪고있는 문제를 해결하도록 도울 수 있습니다. 그러나 올바른 방식으로 배치 할 시간이 필요합니다.

Coglianese는“이것은 우리가 AI 도구를 현명하게 사용할 수 없다고 말하는 것은 아닙니다. “그러나 정부는 올바른 대중의 입력과 알고리즘이 실제로 어떻게 작동하는지에 대한 철저한 검증 및 검증없이 서두르고 신속하게 일을하려고 할 때 길을 잃게됩니다.”