밝은 창

AI 기술의 발전에 따른 위험 본문

단상 ; 편리한 세상?

AI 기술의 발전에 따른 위험

밝은 창 2025. 4. 15. 21:10

 

 

인류는 우리 자신보다 더 똑똑한 것을 상대해본 적이 없다. 더 지능적인 것이 덜 똑똑한 것에 의해 통제되는 사례는 거의 없다

 

매우 강력한 AI 시스템에 비하면 인간은 유아에 불과하다. 우리는 마치 세 살짜리 아이처럼 될 것

 

AI 기술 발전에 기여한 이유로 노벨물리학상을 받은 학자가

AI의 위험성을 경고하면서 한 말이랍니다.

 

 

...

 

더 지능적인 것이 덜 똑똑한 것에 의해 통제되는 사례는 거의 없다.’

이 부분에서 잠깐 멈칫했네요.

 

 

 

그는 다음과 같은 말을 덧붙였답니다.

 

향후 30년 이내에 인류가 멸망할 확률이 10~20%인데

그 이유는 ‘AI 기술의 발전에 따른 위험때문이라고...

 

유일한 해법은

정부에서 강력한 규제책을 만드는 것이라고..

국가에서 규제하지 않으면 답이 없을 거라고...