요즘 AI에 질문을 전부 처리하시는 분들이 많아 걱정이 큽니다
Orange77
이곳을 포함해서 상당히 많은 커뮤니티에서 보이는 현상인데, 사람들이 얻고자 하는 정보를 AI에게 맡기는 것을 넘어서 그 해석까지 맡겨버리더군요.
모든 정보의 수집을 AI에게 맡기는 것은 효율적이고 빠르지만 너무나 그 출처가 허술해 믿음직하지 못합니다.
그냥 좀 구멍이 있구나 한 수준을 넘어서, 인터넷 등지에서 자주 다뤄지지 않는 자세한 정보들을 다룰 경우 신뢰가능한 정보를 가져오는 비율은 1할을 넘지 않기도 합니다.
메이저한 주제를 다뤄도 9할정도만 믿을 수 있는데, 약간이라도 마이너한 주제를 다루면 순식간에 사실 반 거짓 반으로 응답하죠.
이런 정보를 근거로 삼는 행위마저 너무나 위험한데, 이런 정보들을 그대로 AI에게 해석까지 맡기는 행위는 끔찍하기 짝이 없는 결과를 낳습니다.
그럼에도 너무나 많은 사람들이 "AI가 그렇다는데 이게 맞는 것 아니냐?" "잘 모르면 AI에 물어보고 와라" 는 태도로 AI를 활용하거나, 심지어는 AI 답변 전문을 긁어와서는 그대로 분석글로 활용하기도 합니다.
AI를 사용하실때는 꼭 답변한 정보의 출처 원문에 대하여 주소를 요청하거나 직접 찾아보는 식으로 검증 과정을 거치시고, AI에게 직접 데이터의 해석을 맡기는 행위는 절대로 피하셔야 합니다.
혹여나 AI가 제공한 정보를 검증하기가 어렵다면 그 지식을 가진 사람들에게 질문하는것도 좋은 방법일겁니다.
Comment 20
Comment Write
2등 영디비는 ai 글 비율은 그래도 적은 편입니다.
3등 AI도 포함해서, 요새는 믿을 수 있는 것, 사실상 '믿어야 할 것'보다...
편리해서든, 자존심 때문에든 좌우간 마음이 가는, '믿고 싶은 것'을 믿고, 나아가서 검증의 잣대를 들이댈래도 아몰랑 하는 경우들이 많아져서 문제가 된다는 생각입니다. ㅠㅠ
독서가 줄고, 반지성주의가 대두하고, 편의적으로 모든 걸 해치우려는 경향성이 심해진 결과겠지요.
편의를 위해서 편의를 희생하는 결과를 낳으니 너무 안타깝습니다.
Ai를 사용하더라도 그 결과를 판단하는 건 인간입니다. 다른 정보도 마찬가지구요. 단순히 인용 목적이 거짓이든 말든 상관 없는 사람이 그만큼 많다고 봅니다. 사실 Ai 이전에도 그런 인간들은 기사와 서적을 찾아 지껄이기 위해 지껄여왔습니다. 더 편해졌을 뿐이죠
주력이 되어버리면 의존성이 매우 심각해질 겁니다.
애시당초 지금의 LLM기반 AI는 도구 이상의 역할을 하는 것은 원리적으로 무리니까요.
강력한 검증 장치가 개발된다면 모를까...
무슨 칩 썼는지...
몇미리 드라이버인지...
몇옴인지...
요런것만...
직접 스펙 확인을 요청하기보다는 스펙을 다루는 사이트나 문서 등의 위치를 찾을 때 사용하고 자료는 직접 확인하시는것을 추천드립니다.
의료 관련 자료를 찾아보는데 있지도 않은 논문을 10개 중 7개를 뱉은데다가 출처라고 제공한 하이퍼링크도 엉뚱한 곳으로 연결되는 사고를 몇 번 보다보니 간단한 정보라도 직접 검증해보지 않으면 믿을게 못되더군요
저는 그림용 only인 ㄷㄷㄷ
기본적으로 AI가 가져오는 정보는 카더라 수준으로 보는게 안전한 시각같습니다
특히 음향커뮤에서 너무 많아요 ai를 이렇게 신뢰하는 커뮤니티는 처음입니다 물론 커뮤니티를 많이 하지는 않지만 제가 하는곳중에선 제일 많아요
아무래도 그렇다보니 AI에 의존하려는 사람이 많아진듯 합니다... 이럴수록 더 강력하게 검증해서 양질의 정보를 쌓아가야 하는데 말이죠 ㅠ
AI는 제품의 실사용기 주소를 한방에 모아주는 방법으로 사용하고 있습니다!












AI도 포함해서, 요새는 믿을 수 있는 것, 사실상 '믿어야 할 것'보다...
편리해서든, 자존심 때문에든 좌우간 마음이 가는, '믿고 싶은 것'을 믿고, 나아가서 검증의 잣대를 들이댈래도 아몰랑 하는 경우들이 많아져서 문제가 된다는 생각입니다. ㅠㅠ
독서가 줄고, 반지성주의가 대두하고, 편의적으로 모든 걸 해치우려는 경향성이 심해진 결과겠지요.