밝은 창
AI 기술의 발전에 따른 위험 본문
“인류는 우리 자신보다 더 똑똑한 것을 상대해본 적이 없다. 더 지능적인 것이 덜 똑똑한 것에 의해 통제되는 사례는 거의 없다”
“매우 강력한 AI 시스템에 비하면 인간은 유아에 불과하다. 우리는 마치 세 살짜리 아이처럼 될 것”
AI 기술 발전에 기여한 이유로 노벨물리학상을 받은 학자가
AI의 위험성을 경고하면서 한 말이랍니다.
흠...
‘더 지능적인 것이 덜 똑똑한 것에 의해 통제되는 사례는 거의 없다.’
이 부분에서 잠깐 멈칫했네요.
그는 다음과 같은 말을 덧붙였답니다.
향후 30년 이내에 인류가 멸망할 확률이 10~20%인데
그 이유는 ‘AI 기술의 발전에 따른 위험’ 때문이라고...
유일한 해법은
정부에서 강력한 규제책을 만드는 것이라고..
국가에서 규제하지 않으면 답이 없을 거라고...
'단상 ; 편리한 세상?' 카테고리의 다른 글
외국으로 이민가신 분들이... (0) | 2023.11.21 |
---|---|
번개배송 ? (0) | 2023.11.13 |
아침식사를 할 수 있는 대형식당이... (0) | 2023.10.03 |
별 영양가 없는 생각을... (0) | 2023.05.21 |
현직 판사의 강의를 들어보니... (0) | 2023.04.25 |