Tech AI 분야의 여성: 미리엄 보겔이 책임 있는 AI의 필요성을 강조

AI 분야의 여성: 미리엄 보겔이 책임 있는 AI의 필요성을 강조

\n

AI에 초점을 맞춘 여성 학자들과 다른 사람들이 주목 받는 공간을 충분히 - 그리고 이제야 - 얻을 수 있도록 하기 위해, TechCrunch는 AI 혁명에 기여한 탁월한 여성에 중점을 둔 인터뷰 시리즈를 게재하고 있습니다. 우리는 AI 붐이 계속되는 동안 올해 내내 이러한 기사들을 게재하고 있으며 종종 인식되지 못한 주요 작업을 강조합니다. 더 많은 프로필은 여기에서 확인할 수 있습니다.

\n\n

미리엄 보겔은 편견이 없는 AI를 감소시키고 책임 있는 AI 지배를 촉진하기 위해 만들어진 비영리단체 EqualAI의 CEO입니다. 그녀는 최근 의회에 의해 제정된 국가 AI 자문 위원회의 의장을 맡고 있으며 이 위원회는 조 바이든 대통령과 백악관에 AI 정책에 대해 자문하기 위해 만들어졌습니다. 또한 조지타운 대학교 로스쿨에서 기술 법률 및 정책을 가르치고 있습니다.

\n\n

보겔은 이전에 법무부에서 부차관 대변인으로 일하며 변호사 총감과 부차관 대변인에게 다양한 법률, 정책 및 운영 문제에 대해 자문했습니다. 책임 있는 AI 연구소의 이사이자 민주주의기술센터의 고문으로 화이트하우스 리더십에 여성, 경제, 규제 및 식품 안전 정책부터 형사 사법 문제까지 다양한 분야에서 자문을 하였습니다.

\n\n

짧게 말하면, AI 분야에서 어떻게 시작하게 되었나요? 이 분야에 끌리게 된 것은 무엇인가요?

\n\n

나는 정부에서 일을 시작했습니다. 처음에 신뢰의 국정원 인턴으로 일을 했고, 11학년 여름 전후로 정책을 배우게 되었고, 이후 여러 해 동안 국회와 백악관에서 일하게 되었습니다. 그 당시 내 관심은 민권 문제에 있었는데, 이는 인공지능에 대한 전형적인 진로가 아니었지만, 돌이켜보면 완벽하게 이해할 수 있습니다.

\n\n

로스쿨을 졸업한 후, 저의 경력은 지적재산권에 특화된 엔터테인먼트 변호사에서 시행부에서 민권 및 사회적 영향을 받은 일을 하며 진행되었습니다. 저는 백악관에서 근무하는 동안 동일한 급여 수준의 작업 그룹을 주도할 수 있는 특권을 가졌으며, 전 차장인 샐리 예이츠 부차관 대변인 아래 법 집행 관계자들을 위한 내재적 편견 훈련의 창조와 개발을 주도했습니다.

\n\n

나는 기술 변호사로서의 경험과 편견 및 체계적인 해를 다루는 정책적 배경으로 EqualAI를 이끌 기회를 얻었습니다. AI는 다음 민권의 새로운 지평을 제시한다는 것을 깨달았기 때문에 이 단체에 흥미를 느꼈습니다. 경계를 유지하지 않으면 몇 십 년 동안의 진전이 코드 라인에서 무효화될 수 있습니다.

\n\n

이념의 AI가 제공하는 가능성에 항상 흥분했으며, 여전히 AI가 더 많은 인구가 번창할 수 있는 놀라운 새로운 기회를 제공할 수 있다고 믿습니다 - 그러나 우리가 현재 임계점에서 조심스럽게 조심해야만 합니다. 더 많은 사람들이 참여할 수 있도록 개발 및 발전되기를 원한다면.

\n\n

남성 지배적인 기술 산업의 어려움을 어떻게 극복하나요? 그리고 여기서 파생된 남성 지배적인 AI 산업 문제는 무엇인가요?

\n\n

우리 모두가 AI가 최대한 효과적이고 효율적이며 유익하도록하는 데 자리매김할 역할이 있다고 근본적으로 믿습니다. 이는 여성의 목소리를 지원하기 위해 더 많은 노력을 기울여야 함을 의미합니다 (미국에서 구매의 85% 이상을 차지하는 여성들을 위해 최적의 관심과 안전이 반영되도록 하는 것이 스마트한 비즈니스 움직임), 미국의 다른 연령대, 지역, 인종 및 국적의 다양한 미지수들의 의견 역시 고려해야 합니다.

\n\n

젠더 평등을 향해 나아가면서, 우리는 모든 소비자를 위한 AI를 개발하는 데 고려해야 함을 확신합니다 - 개발자들을 위해 작동하는 AI가 아니라 모든 소비자들을 위해 작동하는 AI를 개발해야 합니다.

\n\n

AI 분야에 진입하고자 하는 여성들에게 어떤 충고를 주시겠습니까?

\n\n

첫째로, 시작하기에 늦은 때는 없습니다. 결코. OpenAI의 ChatGPT, Microsoft의 Copilot 또는 Google의 Gemini를 사용해보기를 할머니, 할아버지 모두에게 권장합니다. 우리는 모두 AI가 우리가 진입할 AI-기반 경제에서 번창하기 위해 AI 에 익숙해져야 할 것임을 인식해야 합니다. 그것은 흥미로운 일이죠! 우리 모두가 참여해야 합니다. 여성이 AI에 대한 경력을 시작하거나 작업을 지원하기 위해 AI를 사용하고 있다면 AI 도구들을 시도해보고, 이 도구들이 무엇을 할 수 있는지 할 수 없는지 확인해 보면서 이 도구들이 그들에게 적합한지 여부를 확인하고 전반적으로 AI-들을 이해하게 되어야 합니다.

\n\n

둘째로, 책임 있는 AI 개발은 윤리적인 컴퓨터 과학자 이상을 요구합니다. 대부분의 사람들이 AI 분야는 컴퓨터 과학 또는 기타 STEM 학위가 필요하다고 생각하지만 실제로는 모든 전문 배경의 여성과 남성들의 시각과 전문 지식이 필요합니다. 덤벙거리지 마세요! 여러분의 목소리와 시각이 필요합니다. 여러분의 참여가 중요합니다.

\n\n

AI가 발전함에 따라 가장 긴급한 문제들은 무엇인가요?

\n\n

우리는 EqualAI에서 'AI 순이익'이라고 믿습니다. 이것은 우리가 AI가 우리의 경제에 전례없는 기회를 제공하고 우리의 일상생활을 개선할 것이라고 생각함에도 불구하고 이러한 기회가 현재 인구의 크로스 섹션에 모두에게 동등하게 이용 가능하고 이익을 제공해야 한다고 믿기 때문입니다. 현재 직원들, 다음 세대, 할아버지 - 우리 모두 - AI에서 이익을 얻기 위해 알고 있는지 모든 지식과 기술을 갖춰 줄 필요가 있습니다.

\n\n

둘째로, AI 시스템을 평가하기 위한 표준화된 측정 방법과 메트릭스를 개발해야 합니다. 표준화된 평가 방법은 우리의 AI 시스템에 대한 신뢰를 구축하는 데 핵심적이며, 소비자, 규제 기관 및 하방 이용자들이 상호작용하는 AI 시스템의 한계를 이해하고 그 시스템이 신뢰할 만한지 결정할 수 있도록 해줍니다. 시스템을 누구를 위해 구축된 것으로 파악하고 특정 사용 사례들이 어떤 용도로 고려된 것인지를 이해하면 이 핵심 질문에 답할 수 있을 것입니다: 누구를 위해 실패할 수 있을까?

\n\n

사용자들이 인식해야 할 몇 가지 AI 문제들은 무엇인가요?

\n\n

인공지능은 바로 그것입니다; 인공적입니다. 인간이 만든 사람들을 "모방"하고, 인간들의 추구에서 인간들을 격려하기 위해 만들어졌습니다. 이 기술을 사용할 때 올바른 양의 검토를 유지하고, 우리의 신뢰할 만한 시스템을 사용하기 위한 신중성을 유지해야 합니다. AI는 인간성을 보강할 수 있지만 인간성은 대체하지 못합니다.

\n\n

우리는 AI가 두 가지 주요 구성 요소로 이루어졌음을 분명히 인식해야 합니다: 인간들에 의해 만들어진 알고리즘과 인간들의 대화와 상호 작용을 반영한 데이터. 결과적으로 AI는 우리의 인간적인 결점을 반영하고 적응합니다. 편향과 해가 AI 수명주기 동안 녹아 들 수 있습니다, 사람들에 의해 작성된 알고리즘을 통해 또는 인간 생활의 스냅 샷인 데이터를 통해. 그러나 잠재적인 피해를 식별하고 완화할 기회는 모든 인적 접촉점마다 있습니다.

\n\n

그리고 사람들은 자신의 경험이 허용할 수 있을 만큼 광범위하게 상상할 수 있고, AI 프로그램은 그들이 구축된 구조에 제한됩니다. 다양한 시각과 경험들을 지닌 다양한 사람들이 있는 팀에 속할수록 그들이 AI에 내장된 편견이나 다른 안전 문제를 캐치할 가능성이 더 높아집니다.

\n\n

책임 있는 AI를 구축하는 가장 좋은 방법은 무엇인가요?

\n\n

우리의 신뢰할 수 있는 AI를 건설하는 것은 우리 모두의 책임입니다. 누군가 다른 사람이 대신 할 것을 기대할 수 없습니다. 우리는 세 가지 기본 질문을 던지는 것으로 시작해야 합니다: (1) 이 AI 시스템은 누구를 위해 만들어졌나요? (2) 기획된 사용 사례는 무엇이었나요? (3) 이 시스템은 누구를 위해 실패할 수 있을까요? 이러한 질문에도 불구하고, 불피할로도 덫들이 있을 것입니다. 이러한 위험을 경감하기 위해 디자이너, 개발자 및 배포자들은 최상의 실천방안을 준수해야 합니다.

\n\n

EqualAI에서 우리는 좋은 "AI 위생"을 장려하는데 초점을 맞추어, 프레임워크를 계획하고 책임 담당 등 실적 표준화, 문서화 및 일상적 감사를 보장합니다. 우리는 또한 최근 책임 있는 AI 지배 프레임 워크를 디자인하고 운영에 관한 안내서를 공개했는데, 이는 조직에서 책임 있는 AI 시스템을 구현하기 위한 가치, 원칙 및 프레임 워크를 설명하여 내부와 공공에 AI 시스템을 책임 있게 사용할 것을 약속하는 리소스 역할을 합니다.

\n\n

투자자들이 어떻게 더 나은 책임 있는 AI를 추진할 수 있을까요?

\n\n

투자자는 우리의 AI가 안전하고 효과적이며 책임 있는지를 보장하기 위해 중요한 역할을 합니다. 투자자는 자사에 자금을 요청하는 회사들이 자신들의 AI 시스템에서 발생할 수 있는 잠재적인 피해와 책임을 인식하고 고려하고 있는지 확인할 수 있습니다. 심지어 질문을 하나 던지는 것으로도, 'AI 지배 관행을 어떻게 시행했습니까?'하는 것만으로도 더 나은 결과를 보장하는 의미 있는 첫 걸음이 됩니다.

\n\n

이 노력은 공공이익만을 위한 것뿐만 아니라, 투자한 회사가 나쁜 헤드라인과 소송에 얽