3. 생각하는 여유/6.시사.

인공지능 무기 개발, 핵 전쟁 부른다”는 과장된 기사를 보면서, 좌파성향의 학자를 불러 엉터리 강연.반전 여론 조성

언제나오복의향기 2018. 6. 22. 09:06

인공지능 무기 개발, 핵 전쟁 부른다”는 과장된 기사를 보면서,

 

좌파성향의 학자를 불러 엉터리 강연.

반전 여론을 조성시키고 있다.

 

북한은 핵무기로 무장하고

중국은 엄청난 국방비로 군사력을 강화하고

일본 자국 방위를 위해 재무장을 하며 국방력을 강화하고 있다.

 

그런데 대한민국 군대는ㄴㄴㄴ

가장 위협적인 적국과 주변의 강대국 사이에 끼여 있는데도

한미 합동 군사 훈련도 포기하고

한국군자체훈련도 하지 않고

 

군사력을 축소 시키며

무기 개발도 못하게 하는 헛수아비 한국군은

도대체 왜 존재하는가.

------------

평화, 어느 누가 평화를 싫어하는가,

그러나 평화는 공짜로 얻을 수 없다.

 

평화, 적과 싸울줄 모르는 군대가 어떻게 평화를 지키는가.

칭키스칸을 적들을 완전히 초토화를 시켜버려야 평화로와 진다 했다.

 

개인도,

국가도

 

생존이 먼저다

생존이 없는 평화는 가짜 평화다

가짜 평화를 강조하는 사람들의 의도가 무엇이겠나...

 

------------------------------

“인공지능 무기 개발, 핵 전쟁 부른다”… ‘킬러로봇 반대’ 월시 교수 방한

 

21일 서울에서 토비 월시 호주 뉴사우스웨일스대 교수가 AI 자율살상무기를 막아야 한다고 촉구하고 있다.

 

분단 현실 등 한반도 정세를 고려할 때

 한국이 만약 인공지능(AI) 무기까지 개발한다면 전쟁 발발 가능성은 더 높아질 것입니다.

 

국방력을 강화하기 위한 AI 무기가 오히려

전 세계 안전을 위협하는 핵전쟁으로 이어질 수 있습니다.”


토비 월시 호주 뉴사우스웨일스대 AI 연구전념교수는

21일 서울 웨스틴조선호텔에서 KAIST와 감성 디지털동반자 과제 연구단 주최로 열린 국제 세미나

‘인공지능 길들이기: 공학, 윤리, 정책’에서 AI 무기 개발의 파급 효과에 대해 이처럼 경고했다.

 

그는 AI 연구자이자 유엔의 ‘킬러로봇 금지를 위한 캠페인’을 주도하고 있는 시민운동가다.

올해 4월에는 KAIST가 한화시스템과 함께 국방AI융합연구센터를 개소했다는 소식에

KAIST와의 연구 협력을 전면 ‘보이콧’하는 30개국 AI 연구자 50여 명의 공동성명을 이끌었다.

당시 KAIST 측의 해명 이후 보이콧을 철회한 월시 교수는 KAIST 초청으로 이번 세미나에 참석했다.

그는 “KAIST가 ‘유의미한 인간의 통제’하에서 작동하는 AI를 개발하겠다고 한 약속을 잘 지켜 나가길 바란다”고 말했다.

월시 교수는 “AI 자율살상무기가 꼭 영화 ‘터미네이터’에서처럼 50년, 100년 뒤 나올 법한 킬러로봇만 의미하는 건 아니다.

이미 아프가니스탄에서는 드론이 전쟁에 활용되고 있다”며

“가치 판단을 하지 않는 AI 무기는 아무리 비윤리적인 명령이라도 24시간 무조건 따를 것이다.

결국 인류에게 중대한 위협이 될 것”이라고 지적했다.

 

 

전문가들은 AI를 둘러싼 윤리적인 문제가 산적해 있다는 데 입을 모았다.

AI 알고리즘의 인종·성 편향성이 대표적이다.

안스가 쿠너 영국 노팅엄대 교수는

“얼굴 인식 AI의 경우 흑인이나 동양인보다 백인을 더 잘 인식한다.

외모를 평가할 때도 백인을 선호하는 경향이 있다”며

“대부분의 학습데이터가 주변에서 쉽게 구할 수 있는 백인 사진이기 때문”이라고 말했다.

그는 세계 최대 전문가 집단인 전기전자기술자협회(IEEE)가 추진 중인

13개의 AI 윤리 표준화 프로젝트 중 기존 AI 알고리즘의 편향성을 해결하기 위한 ‘P7003’ 프로젝트를 총괄하고 있다. 


 


쿠너 교수는 이런 편향성이 빅데이터를 기반으로 하는 AI 전반에 깔려 있다고 지적했다.

그는 “구글, 링크딘 등에서 개발한 일자리 매칭 AI 서비스는 과거 취업자의 성별과 학력 등 데이터를 기반으로 사용자에게 일자리를 추천한다”며 “그동안 백인 남성이 고소득 직종에 종사해 왔기 때문에

이런 과거가 AI에 의해 계속 강화되는 문제가 생긴다.

개발자가 의도하지 않더라도 편향성을 보일 수 있다”고 말했다.

이어 그는 “개발 단계에서부터 어떤 AI가 어떤 집단의 사람들에게 영향을 미칠지 면밀하게 검토해야 한다”고 강조했다. 

IEEE는 이런 프로젝트를 바탕으로 내년에

△AI의 안전성 문제

△경제적·인도주의적 관점에서의 문제

△개인정보 취급 문제 등

개발자는 물론 학자, 정책결정자를 위한 AI 개발 표준 지침서 ‘윤리적인 설계(EAD)’의 최종 버전을 내놓을 계획이다.

감성 디지털동반자 과제 연구단을 이끌고 있는 이수영 KAIST 교수는

“윤리적인 토대 위에서 AI와 인간이 공생하기 위해서는 종속 관계가 아닌 동반자 관계가 돼야 한다”고 말했다.

 

다만 월시 교수는 “학계에서 논의되는 윤리 규범이 민간 기업에도 적용되려면 반드시 제도화돼야 한다”고 말했다.

지난해 1월 벨기에 브뤼셀에서 유럽연합(EU) 의회는 ‘로봇시민법 결의안’을 채택했다.

EU가 이 법을 공식 제정하면 EU와 교류하는 다른 국가도 이 법을 준수해야 한다.

쿠너 교수는 “미국과 중국, 일본 등에서도 비슷한 움직임이 있지만 논란도 많다.

사회적으로 활발한 논의가 필요한 이유”라고 말했다.


  
송경은 동아사이언스 기자 kyungeun@donga.com

 



원문보기:
http://news.donga.com/NewsStand/3/all/20180622/90700128/1#csidx0bda5158dcb59ad9440ca38df64bf45