자세히보기

AI 인공지능

기계의 부상 - Rise of the Machine

RebeccaAidenYouJin 2022. 1. 13. 23:33

 

 

RISE OF THE MACHINE: Journalists under threat as AI robot writes article in ONE SECOND

ANOTHER industry is at risk of being replaced by robot workers after an artificially intelligent robot wrote an entire article in just one second.

www.express.co.uk

RISE OF THE MACHINE: Journalists under threat as AI robot writes article in ONE SECOND

ANOTHER industry is at risk of being replaced by robot workers after an artificially intelligent robot wrote an entire article in just one second.

 

 

Journalists are at risk of being replaced by robots

 

Workers around the globe are beginning to fear for their job safety as the rise of the machines is well and truly underway.

And now its journalists’ time to feel the pinch after an AI robot wrote an entire article in just one second.

 

A robot reporter by the name of Xiao Nan created its first article for Chinese media outlet Southern Metropolis Daily.

The machine produced an article consisting of 300 characters on the subject of the Spring Festival travel rush – the largest annual human migration where millions of employees in China travel the huge nation to get home to their families for Chinese New Year.

Is it the end of the line for journalists?

The robot was developed by Wan Xiaojun, a professor at Peking University who is working on developing several AI machines.

 
 

Speaking of the benefits of using robots in the media, professor Xiaojun told China Daily: "When compared with the staff reporters, Xiao Nan has a stronger ability to analyse data and is quicker at writing stories.

Robots will soon take many roles in the office

“Such experiments are creating unease among the staff of the state-run media outlets as they fear they might lose their jobs.”

However, the professor says that robots will not be taking over the industry just yet.

Artificial Intelligence: "The last invention" we'll need

He continued: “Robots are still unable to conduct face-to-face interviews and respond intuitively with follow-up questions. 

“They also do not have the ability to select the news angle from an interview or conversation.”

 

Prof Xiaojun added: "But robots will be able to act as a supplement, helping newspapers and related media, as well as editors and reporters.”

 

 
 

AI 로봇이 1초 만에 기사를 작성함에 따라 위협받는 언론인

인공 지능 로봇이 단 1초 만에 전체 기사를 작성하여 또 다른 산업이 로봇 작업자로 대체될 위험이 있습니다.

으로 숀 마틴
 

기계의 부상이 제대로 진행됨에 따라 전 세계의 근로자들은 직업 안전에 대해 두려움을 갖기 시작했습니다.

그리고 이제 AI 로봇이 단 1초 만에 전체 기사를 작성한 후 언론인들이 위기를 느낄 시간입니다.

 

Xiao Nan이라는 로봇 기자는 중국 언론인 Southern Metropolis Daily에 첫 기사를 기고했습니다.

 

이 기계는 중국의 수백만 직원이 중국 설날에 가족의 집으로 돌아가기 위해 거대한 나라를 여행하는 가장 큰 연례 인간 이주인 춘절 여행 러시를 주제로 300자로 구성된 기사를 생산했습니다.

이 로봇은 여러 AI 기계를 개발 중인 베이징 대학교의 완 샤오쥔 교수가 개발했습니다.

 

Xiaojun 교수는 미디어에서 로봇을 사용할 때의 이점에 대해 China Daily에 다음과 같이 말했습니다.

 

“이러한 실험은 국영 언론사 직원들이 실직을 두려워하면서 불안을 조성하고 있습니다.”

 

그러나 교수는 로봇이 아직 산업을 인수하지 않을 것이라고 말합니다.

그는 계속해서 “로봇은 여전히 ​​대면 인터뷰를 수행하고 후속 질문에 직관적으로 응답할 수 없습니다. 

“그들은 또한 인터뷰나 대화에서 뉴스 각도를 선택하는 능력이 없습니다.”

 

Xiaojun 교수는 "그러나 로봇은 신문과 관련 매체, 편집자와 기자를 돕는 보조 역할을 할 수 있을 것"이라고 덧붙였습니다.

 
 
 

DESTROYING OURSELVES: Artificial intelligence poses THREAT to humanity - shock report

ARTIFICIAL intelligence (AI) poses a threat to humanity’s existence, according to a startling new report.

www.express.co.uk

 

DESTROYING OURSELVES: Artificial intelligence poses THREAT to humanity - shock report

ARTIFICIAL intelligence (AI) poses a threat to humanity’s existence, according to a startling new report.

 

The rise of the machines could ultimately lead to the downfall of humanity, it has been suggested, if it is not controlled properly.

The World Economic Forum’s (WEF) annual Global Risk study pinpoints AI as one of the danges that the world faces this year.

Experts have touted the evolution of technology as exacerbating the threat to geopolitical stability, job security and social relationships in recent years.

The report, which surveyed 750 experts, says that the eventual rise of AI could lead to humans either becoming extinct, or losing their place as the dominant species on the planet.

 

With AI having the potential to develop consciousness, the report fears that the machines objectives may not fall in line with humanity’s, and ultimately we could become a nuisance to them.

 

It says that as the use of AI become commonplace, “so do the risks of these applications operating in unforeseeable ways or outside the control of humans.”

 

Many experts, including Stephen Hawking and Bill Gates, have expressed concern over the potential rise of AI, believing that it does create a risk for us.

 

The report continues: “Some serious thinkers fear that AI could one day pose an existential threat: a ‘superintelligence’ might pursue goals that prove not to be aligned with the continued existence of humankind.”

 

AI will be used in war

 

John Drzik, president of global risks and specialties at risk management firm Marsh, which helped on the report, said that while AI could benefit humans in many ways, it also adds risk to already heightened global tensions.

 

He said: "Artificial intelligence will enable us to address some of the great issues of our age, such as climate change and population growth, much more effectively.

 

"However, increased reliance on AI will dramatically exacerbate existing risks, such as cyber, making the development of mitigation measures just as crucial.”

 

우리 자신을 파괴하는 것: 인공 지능이 인류를 위협합니다 - 충격 보고서

놀라운 새로운 보고서에 따르면 인공 지능(AI)은 인류의 존재에 위협이 됩니다.

으로 숀 마틴
 

기계의 부상은 궁극적으로 인류의 몰락으로 이어질 수 있으며, 제대로 제어되지 않을 경우 그렇게 될수 있을거라고 제안되어졌습니다.

세계경제포럼(WEF)의 연례 글로벌 리스크(Global Risk) 연구에서는 AI를 올해 세계가 직면한 위험 중 하나로 지적했습니다.

 

전문가들은 최근 몇 년 동안 지정학적 안정성, 직업 안정성 및 사회적 관계에 대한 위협을 악화시키는 것으로 기술의 진화를 선전했습니다.

750명의 전문가를 대상으로 한 보고서에 따르면 AI의 궁극적인 부상은 인간이 멸종하거나 지구에서 지배적인 종으로서의 위치를 ​​잃을 수 있다고 말합니다.

 

AI가 의식을 개발할 수 있는 잠재력을 가지고 있기 때문에 보고서는 기계 목표가 인류의 목표와 일치하지 않을 수 있고 궁극적으로 우리가 그들에게 골칫거리가 될 수 있다고 우려하고 있습니다.

 

AI의 사용이 보편화됨에 따라 "이러한 애플리케이션이 예측할 수 없는 방식으로 또는 인간의 통제를 벗어나 작동하는 위험도 커집니다."

커집니다."

 

AI는 언젠가 노동력의 대다수를 대체할 것입니다

 

스티븐 호킹(Stephen Hawking)과 빌 게이츠(Bill Gates)를 포함한 많은 전문가들은 AI가 우리에게 위험을 초래한다고 믿으며 AI의 잠재적 부상에 대해 우려를 표명했습니다. 

 

보고서는 다음과 같이 계속됩니다. "일부 진지한 사상가들은 AI가 언젠가는 실존적 위협이 될 수 있다고 우려하고 있습니다. '초지능'이 인류의 지속적인 존재와 일치하지 않는 것으로 판명된 목표를 추구할 수도 있습니다."

 

보고서 작성을 도운 위험 관리 회사 Marsh의 글로벌 위험 및 전문 분야 사장인 John Drzik은 AI가 여러 면에서 인간에게 도움이 될 수 있지만 이미 고조된 글로벌 긴장에 위험을 더한다고 말했습니다

 

그는 "인공 지능을 통해 기후 변화 및 인구 증가와 같은 우리 시대의 중대한 문제를 훨씬 더 효과적으로 해결할 수 있습니다.

 

"그러나 AI에 대한 의존도가 높아지면 사이버와 같은 기존 위험이 극적으로 악화되어 완화 조치의 개발이 중요해질 것입니다."

 

 

 

This is how AI ROBOTS will take over the world - and why we need to stop scientsts NOW

RESEARCHERS have pieced together the map of artificial intelligence’s future, showing the certainty machines will one day exceed man.

www.express.co.uk

 

This is how AI ROBOTS will take over the world - and why we need to stop scientsts NOW

RESEARCHERS have pieced together the map of artificial intelligence’s future, showing the certainty machines will one day exceed man.

 

The rise of AI now seems inevitable with many experts, including Stephen Hawking, stating the invention of smart machines will be the biggest ever impact on humanity.

However, there has been a lack of clarity about when and how the takeover of machines will occur, but one leading researcher has now mapped out AI’s future progress.

 

Arend Hintz, assistant professor of integrative biology & computer science and engineering at Michigan State University, says the rise of AI truly began in the 1990s with “reactive machines”.

Mr Hintz said that the most basic types of AI are neither able to form memories or learn from past experiences, pointing to IBM’s chess-playing supercomputer, Deep Blue, which managed to beat chess world champion Garry Kasparov in 1997.

 

AI will one day rule the world

 

While Deep Blue was able to identify the pieces on a chessboard and know where to move them, it had no concept of learning from past games to improve.

 

Mr Hintz wrote in an article for The Conversation: “This type of intelligence involves the computer perceiving the world directly and acting on what it sees. It doesn’t rely on an internal concept of the world.”

The next stage, or Type II, will have limited memory.

 

 

이것이 AI 로봇이 세계를 장악하는 방식이며, 우리가 지금 과학계를 멈춰야 하는 이유입니다.
연구원들은 인공지능의 미래 지도를 종합하여, 확실한 기계가 언젠가는 인간을 능가할 것이라는 것을 보여주었습니다.
숀 마틴입니다

스티븐 호킹(Stephen Hawking)을 포함한 많은 전문가들이 스마트 머신의 발명이 인류에게 가장 큰 영향을 미칠 것이라고 말함에 따라 AI의 발명은 이제 피할 수 없는 것으로 보입니다.

다만 기계 인수가 언제 어떻게 일어날지에 대해서는 명확성이 부족했지만, 이제 한 선도적인 연구원이 AI의 미래 진보를 구상했습니다.

미시간 주립대학교의 통합생물학과 컴퓨터 과학 및 공학 조교수인 아렌드 힌츠는 AI의 발흥은 1990년대 "반응성 기계"에서 진정으로 시작됐다고 말합니다.

힌츠 씨는 1997년 체스 세계 챔피언 게리 카스파로프를 가까스로 이긴 IBM의 체스 게임 슈퍼컴퓨터 딥 블루를 가리키며 가장 기본적인 유형의 AI는 기억을 형성하거나 과거의 경험으로부터 배울 수 없다고 말했습니다.

 

힌츠 씨는 "대화"지의 기사에서 이렇게 썼습니다: "이런 종류의 지능은 컴퓨터가 세상을 직접 인지하고 세상을 보는 것에 따라 행동하는 것을 포함합니다. 그것은 세계의 내부 개념에 의존하지 않습니다."

다음 단계인 유형 II는 메모리가 제한됩니다.

 

 

‘AI ARMS RACE' Stephen Hawking and Elon Musk warn against the rise of machines

STEPHEN Hawking and Elon Musk have once again warned about the inevitable rise of artificial intelligence (AI).

 

Artificial Intelligence: "The last invention" we'll need

 

We use your sign-up to provide content in ways you've consented to and to improve our understanding of you. This may include adverts from us and 3rd parties based on our understanding. You can unsubscribe at any time. More info

Stephen Hawking and Elon Musk have joined a plethora of experts in signing an open letter along with other esteemed researchers which calls for the machines to be developed only in ways that can benefit humanity.

With AI having the potential to develop consciousness, many experts have previously warned that it could become vastly superior to man, posing a threat to our existence.

As such, experts including Stephen Hawking and Tesla and SpaceX CEO Elon Musk have signed an open letter consisting of 23 guidelines that will ensure that AI falls into humanity’s agenda, and not the other way around.

 

Elon Musk and Stephen Hawking have warned against the rise of AI

The list is broken down into three categories; Research issues, Ethics and values, and Longer-term issues – you can read the full guideline here at The Future of Life Institute (FLI).

Among the issues is that the development of AI could lead to an AI arms race, which the World Economic Forum’s annual Global Risks report declaring that “a new arms race is developing in weaponised robotics”, adding that as AI becomes more common, “so do the risks of these applications operating in unforeseeable ways or outside the control of humans”.

 

One of the signatories, Stefano Ermon from the Department of Computer Science at Stanford University said: “I’m not a fan of wars, and I think it could be extremely dangerous.

 

“Obviously I think that the technology has a huge potential and, even just with the capabilities we have today, it’s not hard to imagine how it could be used in very harmful ways.”

Stephen Hawking has been vocal in his warnings against AI

A spokesperson for the FLI told Newsweek: “We hope that these principles will provide material for vigorous discussion and also aspirational goals for how the power of AI can be used to improve everyone’s lives in coming years.”


AI 군비 경쟁의 스티븐 호킹과 일론 머스크는 기계의 부상에 대해 경고합니다.
스티븐 호킹과 일론 머스크가 인공지능(AI)의 피할 수 없는 상승에 대해 다시 한번 경고했습니다.
숀 마틴입니다

인공지능: "최후의 발명품"이 필요합니다.

NAT은 귀하가 동의한 방식으로 콘텐츠를 제공하고 사용자에 대한 이해를 높이기 위해 회원님의 가입을 사용합니다. 이것은 우리의 이해에 따라 우리와 제3자의 광고를 포함할 수 있습니다. 언제든지 구독을 취소할 수 있습니다. 추가 정보

Stephen Hawking과 Elon Musk는 많은 전문가들과 함께 다른 존경받는 연구원들과 함께 공개 서한에 서명했고, 이 서한은 기계가 인류에게 이익이 될 수 있는 방식으로만 개발되어야 한다고 주장했습니다.

인공지능이 의식을 발전시킬 수 있는 잠재력을 가지고 있기 때문에, 많은 전문가들은 이전에 그것이 인간보다 훨씬 우월해질 수 있고, 우리의 존재에 위협이 될 수 있다고 경고했습니다.


이와 같이 스티븐 호킹과 테슬라 등 전문가들과 일론 머스크 스페이스X 최고경영자(CEO)는 AI가 인류의 의제로 전락하는 것을 보장하는 23가지 지침으로 구성된 공개서한에 서명했습니다.

일론 머스크와 스티븐 호킹은 AI의 증가에 대해 경고했습니다.
이 목록은 연구 문제, 윤리와 가치, 그리고 장기 문제 등 세 가지 범주로 구분되어 있습니다. 여기 FLI(The Future of Life Institute)에서 전체 지침을 읽을 수 있습니다.

https://futureoflife.org/2017/08/11/ai-principles/



쟁점들 중 하나는 AI의 개발이 AI 군비 경쟁으로 이어질 수 있다는 것인데, 세계 경제 포럼의 연례 글로벌 리스크 보고서는 "새로운 군비 경쟁"이라고 선언합니다.


문제 중 하나는 AI의 개발이 AI 군비 경쟁으로 이어질 수 있다는 것인데, 세계경제포럼(WEF)의 연례 글로벌 리스크 보고서는 "무기화된 로봇 분야에서 새로운 군비 경쟁이 전개되고 있다"며 AI가 보편화됨에 따라 "이러한 애플리케이션의 위험도 예측 불가능한 방법이나 인간의 통제 밖에 있다"고 덧붙였습니다.s"입니다.



서명자들 중 한 명인 스탠포드 대학의 컴퓨터 과학과의 스테파노 에르몬은 이렇게 말했습니다. "저는 전쟁을 좋아하지 않으며, 이것은 매우 위험할 수 있다고 생각합니다.


"분명히 저는 이 기술이 엄청난 잠재력을 가지고 있으며, 심지어 오늘날 우리가 가지고 있는 능력만으로도 어떻게 매우 해로운 방식으로 사용될 수 있을지 상상하는 것은 어렵지 않습니다."


스티븐 호킹 박사는 AI에 대한 경고에 목소리를 높였습니다.
FLI의 대변인은 뉴스위크와의 인터뷰에서 "우리는 이러한 원칙들이 활발한 토론을 위한 자료를 제공하고 앞으로 AI의 힘이 모든 사람의 삶을 개선하는데 어떻게 사용될 수 있는지에 대한 포부적인 목표를 제공하기를 바랍니다."라고 말했습니다.


           ☆☆☆아실로마 AI원칙☆☆☆

 

 

인공지능은 이미 전 세계 사람들이 매일 사용하는 유용한 도구를 제공합니다. 다음과 같은 원칙에 따라, 인공지능의 지속적인 발전은 앞으로 수십 년 또는 수백 년 동안 사람들을 돕고 힘을 실어 줄 놀라운 기회를 제공할 것입니다.

 

연구 이슈

1) 연구목표 : 인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발하는 것이다.

 

2) 연구비 지원 : 인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다:

 

* 어떻게 미래의 인공지능 시스템을 강력하게 만들어 오작동이나 해킹 피해 없이 우리가 원하는 대로 작업을 수행하도록 할 수 있나?

* 사람들의 자원과 목적을 유지하면서 자동화를 통해 우리 번영을 어떻게 성장시킬 수 있나?

* 인공지능과 보조를 맞추고 인공지능과 관련된 위험을 통제하기 위해, 보다 공정하고 효율적으로 법률 시스템을 개선할 수 있는 방법은 무엇인가?

* 인공지능은 어떤 가치를 갖추어야 하며, 어떤 법적 또는 윤리적인 자세를 가져야 하는가?

 

3) 과학정책 연결 : 인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다.

 

4) 연구문화 : 인공지능 연구자와 개발자 간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다.

 

5) 경쟁 피하기 : 인공지능 시스템 개발팀들은 안전기준에 대비해 부실한 개발을 피하고자 적극적으로 협력해야 한다.

 

윤리 및 가치

6) 안전 : 인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용 가능하고 실현 가능할 경우 그 안전을 검증할 수 있어야 한다.

 

7) 장애 투명성 : 인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다.

 

8) 사법적 투명성 : 사법제도 결정에 있어 자율시스템이 사용된다면, 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공할 수 있어야 한다.

 

9) 책임 : 고급 인공지능 시스템의 디자이너와 설계자는 인공지능의 사용, 오용 및 행동의 도덕적 영향에 관한 이해관계자이며, 이에 따라 그 영향을 형성하는 책임과 기회를 가진다.

 

10) 가치관 정렬 : 고도로 자율적인 인공지능 시스템은 작동하는 동안 그의 목표와 행동이 인간의 가치와 일치하도록 설계되어야 한다.

 

11) 인간의 가치 : 인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용되어야 한다.

 

12) 개인정보 보호 : 인공지능 시스템의 데이터를 분석 및 활용능력의 전제하에, 사람들은 그 자신들이 생산한 데이터를 액세스, 관리 및 통제할 수 있는 권리를 가져야 한다.

 

13) 자유와 개인정보 : 개인정보에 관한 인공지능의 쓰임이 사람들의 실제 또는 인지된 자유를 부당하게 축소해서는 안된다.

 

14) 공동이익 : 인공지능 기술은 최대한 많은 사람에게 혜택을 주고 힘을 실어주어야 한다.

 

15) 공동번영 : AI에 의해 이루어진 경제적 번영은 인류의 모든 혜택을 위해 널리 공유되어야 한다.

 

16) 인간의 통제력 : 인간이 선택한 목표를 달성하기 위해 인간은 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.

 

17) 비파괴 : 고도화된 인공지능 시스템의 통제로 주어진 능력은 건강한 사회가 지향하는 사회적 및 시정 과정을 뒤엎는 것이 아니라 그 과정을 존중하고 개선해야 한다.

 

18) 인공지능 무기 경쟁 : 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.

 

장기 이슈

19) 인공지능 능력에관한 주의 : 합의가 없으므로 향후 인공지능 능력의 상한치에 관한 굳은 전제는 피해야 한다.

 

20) 중요성 : 고급 AI는 지구 생명의 역사에 심각한 변화를 가져올 수 있으므로, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다.

 

21) 위험 : 인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실존적 위험에는, 예상된 영향에 맞는 계획 및 완화 노력이 뒷받침되어야 한다.

 

22) 재귀적 자기 개선 : 인공지능 시스템이 재귀적 자기 복제나 자기 개선을 통하여 빠른 수적 또는 품질 증가를 초래한다면, 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다.

 

23) 공동의 선 : 초지능은 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다.

 

 

 

 

 

AI Principles - Future of Life Institute

6) Safety: AI systems should be safe and secure throughout their operational lifetime, and verifiably so where applicable and feasible. 7) Failure Transparency: If an AI system causes harm, it should be possible to ascertain why. 8) Judicial Transparency:

futureoflife.org

반응형