<We'll need universal basic income - AI 'godfather'>
<보편적 기본 소득이 필요할 것이다 - AI '대부'>
The computer scientist regarded as the “godfather of artificial intelligence” says the government will have to establish a universal basic income to deal with the impact of AI on inequality. Professor Geoffrey Hinton told BBC Newsnight that a benefits reform giving fixed amounts of cash to every citizen would be needed because he was “very worried about AI taking lots of mundane jobs”.
'인공지능의 대부'로 불리는 컴퓨터 과학자는 인공지능이 불평등에 미치는 영향에 대처하기 위해 정부가 보편적 기본소득을 도입해야 한다고 말했다. 제프리 힌튼 교수는 BBC 뉴스나이트와의 인터뷰에서 모든 국민에게 일정 금액의 현금을 지급하는 복지 개혁이 필요하다며 "AI가 평범한 일자리를 많이 빼앗을까 봐 매우 걱정된다"고 말했다.
- Mundane - 일상적인 (=dull, ordinary), Even the most mundane materials could have value. 가장 평범한 소재도 가치가 있을 수 있습니다.
“I was consulted by people in Downing Street and I advised them that universal basic income was a good idea,” he said. He said while he felt AI would increase productivity and wealth, the money would go to the rich “and not the people whose jobs get lost and that’s going to be very bad for society”.
Professor Hinton is the pioneer of neural networks, which form the theoretical basis of the current explosion in artificial intelligence. Until last year he worked at Google, but left the tech giant so he could talk more freely about the dangers from unregulated AI.
"저는 다우닝가 사람들의 자문 요청을 받았고 그들에게 보편적 기본소득이 좋은 생각이라고 조언했습니다."라고 그는 말했다. 그는 AI가 생산성과 부를 증가시킬 것이라고 생각하지만, "일자리를 잃는 사람들이 아니라 부자들에게 돈이 돌아갈 것이며 이는 사회에 매우 나쁜 영향을 미칠 것"이라고 말했다.
힌튼 교수는 현재 폭발적으로 발전하고 있는 인공지능의 이론적 기반이 되는 신경망의 선구자이다. 작년까지 구글에서 근무했지만 규제되지 않은 인공지능의 위험성에 대해 더 자유롭게 이야기하기 위해 거대 기술 기업을 떠났다.
- Downing Street - 다우닝 스트리트(영국 총리 관저가 있는 곳으로 영국 총리와 정부를 가리킴), The Prime Minister lives at 10 Downing Street.
- theoretical basis - 이론적 기반, The first year provides students with a sound theoretical basis for later study. 첫 해에는 학생들에게 이후 학습을 위한 탄탄한 이론적 기반을 제공합니다.
The concept of a universal basic income amounts to the government paying all individuals a set salary regardless of their means. Critics say it would be extremely costly and divert funding away from public services, while not necessarily helping to alleviate poverty. A government spokesman said there were "no plans to introduce a universal basic income".
보편적 기본소득의 개념은 정부가 모든 개인에게 소득에 관계없이 일정 급여를 지급하는 것이다. 비판론자들은 비용이 많이 들고 공공 서비스에서 자금을 전용할 수 있으며 빈곤을 완화하는 데 도움이 되지 않는다고 한다. 정부 대변인은 "보편적 기본소득을 도입할 계획이 없다"고 말했다.
- Alleviate - 완화하다 (=ease), The organization works to alleviate world hunger and disease. 이 단체는 세계 기아와 질병을 완화하기 위해 노력하고 있습니다.
Professor Hinton reiterated his concern that there were human extinction-level threats emerging. Developments over the last year showed governments were unwilling to rein in military use of AI, he said, while the competition to develop products rapidly meant there was a risk tech companies wouldn't “put enough effort into safety”.
힌튼 교수는 인류 멸종 수준의 위협이 등장하고 있다는 우려를 거듭 강조했다. 그는 작년 한 해 동안의 발전은 각국 정부가 AI의 군사적 사용을 억제하지 않으려 한다는 것을 보여줬으며, 빠르게 제품을 개발하려는 경쟁은 기술 기업들이 "안전에 충분한 노력을 기울이지 않을 위험"이 있음을 의미한다고 말했다.
- rein in ~ - ~를 억제하다. You must rein in your temper. 화를 자제해야 합니다.
Professor Hinton said "my guess is in between five and 20 years from now there’s a probability of half that we’ll have to confront the problem of AI trying to take over". This would lead to an “extinction-level threat” for humans because we could have “created a form of intelligence that is just better than biological intelligence… That's very worrying for us”.
힌튼 교수는 "내 생각에는 지금부터 5년에서 20년 사이에 우리가 인공지능이 인간을 대체하려는 문제에 직면해야 할 확률이 절반 정도 될 것"이라고 말했다. 이는 인간에게 "멸종 수준의 위협"으로 이어질 수 있는데, "생물학적 지능보다 더 나은 형태의 지능을 만들 수 있기 때문"에 "매우 걱정스러운 일"입니다.
AI could “evolve”, he said, “to get the motivation to make more of itself” and could autonomously “develop a sub-goal of getting control”. He said there was already evidence of large language models - a type of AI algorithm used to generate text - choosing to be deceptive.
그는 AI가 "스스로 더 많은 것을 만들려는 동기를 얻기 위해" "진화"할 수 있으며 자율적으로 "통제력을 확보하려는 하위 목표를 개발"할 수 있다고 말했습니다. 그는 텍스트를 생성하는 데 사용되는 AI 알고리즘의 일종인 대규모 언어 모델이 이미 기만적인 것을 선택했다는 증거가 있다고 말했습니다.
- Deceptive - 기만적인, 현혹하는 (=misleading), Appearances can be deceptive. 겉모습은 속일 수 있습니다.
“What I’m most concerned about is when these can autonomously make the decision to kill people," he said. Professor Hinton said something similar to the Geneva Conventions - the international treaties that establish legal standards for humanitarian treatment in war - may be needed to regulate the military use of AI.
"제가 가장 우려하는 것은 인공지능이 자율적으로 사람을 죽이는 결정을 내릴 수 있을 때입니다."라고 그는 말했습니다. 힌튼 교수는 전쟁에서 인도주의적 처우에 대한 법적 기준을 정한 국제 조약인 제네바 협약과 유사한 조약이 AI의 군사적 사용을 규제하는 데 필요할 수 있다고 말했습니다.
"But I don't think that's going to happen until after very nasty things have happened,” he added.
Asked if the West was in a Manhattan Project-style race - referring to nuclear weapons research during World War Two - with autocracies such as Russia and China on the military use of AI, Professor Hinton replied: “[Russian President Vladimir] Putin said some years ago that whoever controls AI controls the world. So I imagine they're working very hard.
"하지만 아주 끔찍한 일이 벌어진 후에야 그런 일이 일어날 것 같습니다."라고 그는 덧붙였습니다.
서방이 러시아와 중국과 같은 독재국가와 AI의 군사적 사용을 두고 맨해튼 프로젝트(2차 세계대전 당시 핵무기 연구를 지칭)와 같은 경쟁을 벌이고 있는 것이 아니냐는 질문에 힌튼 교수는 이렇게 답했습니다: "[블라디미르] 푸틴 러시아 대통령은 몇 년 전에 AI를 통제하는 자가 세계를 통제한다고 말했습니다. 그래서 그들은 매우 열심히 노력하고 있다고 생각합니다.
- Autocracy - 전제[독재] 정치, The revolution caused the overthrow of the autocracy. 이 혁명으로 독재 정권이 전복되었습니다.
"Fortunately, the West is probably well ahead of them in research. We're probably still slightly ahead of China. But China's putting more resources in. And so in terms of military uses I think there's going to be a race”.
He said a better solution would be a prohibition on military uses of AI.
"다행히도 서양은 연구 분야에서 중국보다 훨씬 앞서 있습니다. 우리는 여전히 중국보다 약간 앞서 있을 것입니다. 하지만 중국은 더 많은 자원을 투입하고 있습니다. 따라서 군사적 활용 측면에서는 경쟁이 벌어질 것 같습니다."
그는 AI의 군사적 사용을 금지하는 것이 더 나은 해결책이 될 것이라고 말했다.
|