work meeting
크레딧: Unsplash/CC0 공개 도메인

마이크로소프트는 최근출시됨다양한 작업을 수행할 수 있는 인공 지능(AI) 도우미가 추가된 모든 소프트웨어의 새 버전입니다.부조종사언어적 대화를 요약할 수 있다온라인 회의, 구두 토론을 기반으로 특정 요점에 대한 찬반 주장을 제시하고 이메일의 일부에 답변합니다.컴퓨터 코드를 작성할 수도 있습니다.

빠르게 발전하는 이 기술은 AI가 우리의 삶을 더 쉽게 만들고 인간으로서 해야 하는 지루하고 반복적인 일을 모두 없애는 미래에 우리를 더욱 가까이 데려가는 것처럼 보입니다.

그러나 이러한 발전은 모두 매우 인상적이고 유용하지만, 우리는 이러한 기술을 사용할 때 주의해야 합니다.대규모 언어 모델(LLM).직관적인 특성에도 불구하고 효과적이고 안정적이며 안전하게 사용하려면 여전히 기술이 필요합니다.

대규모 언어 모델

"딥 러닝" 신경망의 일종인 LLM은 제공된 프롬프트를 기반으로 다양한 응답의 확률을 분석하여 사용자의 의도를 이해하도록 설계되었습니다.따라서 사람이 프롬프트를 입력하면 LLM은 텍스트를 검토하고 가장 가능성 있는 응답을 결정합니다.

채팅GPTLLM의 대표적인 예인 는 광범위한 주제에 대한 프롬프트에 대한 답변을 제공할 수 있습니다.그러나 겉보기에 지식이 풍부한 답변에도 불구하고 ChatGPT는그렇지 않다실제적인 지식을 가지고 있습니다.그 응답은 주어진 프롬프트에 기초한 가장 가능성 있는 결과일 뿐입니다.

사람들이 ChatGPT, Copilot 및 기타 LLM에 수행하려는 작업에 대한 자세한 설명을 제공하면 이러한 모델은 고품질 응답을 제공하는 데 탁월할 수 있습니다.여기에는 텍스트, 이미지 또는.

그러나 인간으로서 우리는 종종 기술이 할 수 있는 일과 원래 설계된 목적의 한계를 뛰어넘습니다.결과적으로 우리는 이러한 시스템을 사용하여 스스로 수행해야 했던 발품 작업을 수행하기 시작합니다.

AI에 대한 과도한 의존이 문제가 될 수 있는 이유

그들의 겉보기에는 지능적인 반응에도 불구하고 우리는 맹목적으로 그렇게 할 수 없습니다.신뢰하다LLM은 정확하거나 신뢰할 수 있어야 합니다.우리는 출력을 신중하게 평가하고 검증하여 초기 프롬프트가 제공된 답변에 반영되도록 해야 합니다.

LLM 결과를 효과적으로 확인하고 검증하려면 해당 주제에 대한 철저한 이해가 필요합니다.전문 지식이 없으면 필요한 품질 보증을 제공할 수 없습니다.

이는 LLM을 사용하여 지식의 격차를 해소하는 상황에서 특히 중요합니다.여기서 우리의 지식 부족으로 인해 출력이 올바른지 여부를 단순히 판단할 수 없는 상황이 발생할 수 있습니다.이러한 상황은 텍스트 생성 및 코딩에서 발생할 수 있습니다.

AI를 사용하여 회의에 참석하고 토론을 요약하면 신뢰성에 대한 명백한 위험이 있습니다.회의 기록은 기록을 기반으로 하지만 회의 메모는 여전히 LLM의 다른 텍스트와 동일한 방식으로 생성됩니다.이는 여전히 언어 패턴과 말한 내용의 확률을 기반으로 하므로 실행에 앞서 확인이 필요합니다.

또한 해석상의 문제로 인해 어려움을 겪고 있습니다.동음어, 발음은 같지만 의미가 다른 단어입니다.사람들은 대화의 맥락으로 인해 그러한 상황에서 의미하는 바를 잘 이해합니다.

하지만 AI는 맥락을 추론하는 데 능숙하지 않고 뉘앙스를 이해하지도 못합니다.따라서 오류가 있을 수 있는 기록을 기반으로 주장을 공식화할 것으로 예상하는 것은 여전히 ​​더 많은 문제를 야기합니다.

AI를 사용하여 컴퓨터를 생성하는 경우 검증이 더욱 어렵습니다..테스트 데이터로 컴퓨터 코드를 테스트하는 것은 해당 기능을 검증하는 신뢰할 수 있는 유일한 방법입니다.이는 코드가 의도한 대로 작동함을 보여주지만 해당 동작이 실제 기대치와 일치한다고 보장하지는 않습니다.

생성 AI를 사용하여 감정 분석 도구용 코드를 생성한다고 가정해 보겠습니다.목표는 제품 리뷰를 분석하고 감정을 긍정적, 중립, 부정적으로 분류하는 것입니다.우리는 시스템의 기능을 테스트하고 코드 기능을 올바르게 검증할 수 있습니다. 이는 기술적인 프로그래밍 관점에서 볼 때 건전합니다.

그러나 우리가 그러한 소프트웨어를 배포한다고 상상해보십시오.냉소적인 제품 리뷰를 긍정적인 것으로 분류하기 시작합니다.감정 분석 시스템에는 풍자가 긍정적인 피드백으로 사용되지 않으며 그 반대라는 점을 이해하는 데 필요한 상황별 지식이 부족합니다.

이와 같이 미묘한 상황에서 코드의 출력이 원하는 결과와 일치하는지 확인하려면 전문 지식이 필요합니다.

프로그래머가 아닌 사람은 이에 대한 지식이 없습니다.계획, 방법론, 테스트 및 문서화와 같이 코드가 올바른지 확인하는 데 사용되는 원칙입니다.프로그래밍은 복잡한 학문이며, 소프트웨어 공학은 소프트웨어 품질을 관리하는 분야로 등장했습니다.

내 자신처럼 심각한 위험이 있습니다.연구비전문가는 프로세스의 중요한 단계를 간과하거나 건너뛸 수 있다는 사실이 밝혀졌습니다.품질을 알 수 없는 코드로 이어지는 디자인 프로세스.

검증 및 검증

ChatGPT 및 Copilot과 같은 LLM은 우리 모두가 혜택을 누릴 수 있는 강력한 도구입니다.그러나 우리는 우리에게 주어진 결과를 맹목적으로 신뢰하지 않도록 주의해야 합니다.

우리는 이 기술을 기반으로 한 대혁명의 시작점에 와 있습니다.AI는 무한한 가능성을 가지고 있지만 형태를 만들고 확인하고 검증해야 합니다.그리고 현재 이 일을 할 수 있는 사람은 인간뿐입니다.

이 기사는 다음에서 재출판되었습니다.대화크리에이티브 커먼즈 라이센스에 따라.읽기원본 기사.The Conversation

소환:이제 AI가 회의에 참석하고 코드를 작성할 수 있습니다.조심해야 하는 이유는 다음과 같습니다 (2024년 1월 3일)2024년 1월 3일에 확인함https://techxplore.com/news/2024-01-ai-code-cautious.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.