chatGPT 한계점과 대체재에 대해

You are currently viewing chatGPT 한계점과 대체재에 대해

chatGPT 는 궁극의 AI?

이전글에서 chatGPT 와 동일한 GPT 3.5의

python api에 대해 알아봤다.

분명 유용한 툴이지만 세상을 바꿀 정도일까?

chatGPT 의 단점에 대해 알아보자.

최적의 답변이 아니다.

GPT에는 별도의 지능이 없기때문에

학습된 데이터가 옳은지 틀린지 얼마나 좋은지 평가할 수 없다.

따라서 학습 시킨 데이터의 질에 따라

답변의 질도 결정된다.

또한, 내용을 조합하여 답변하기 때문에

이 과정에서 오류가 섞여 들어갈 수 있다.

특히, 코딩 측면에서 이런 점이 두드러진다.

chatGPT 가 제공해 주는 코드, 예제는

분명 유용하지만 수준이 높지 않다.

이러한 불완전성은 기술적 특성이자 한계이고

애초에 노코드 , 로우코드 솔루션의 목적은 다음과 같다.

  1. 초보자의 손쉬운 사용
  2. 단순 반복 코드의 작성 시간 단축

따라서 chatGPT 가 현업 프로그래머를 대체할 수는 없다.

최적의 코드를 제공하지 못하는게 당연하고

이에 대해 불평한다면 기술의 목적,용도를

잘못 이해한 것이다.

애초에 목적

현업 프로그래머를 대체하는

애초에 chatGPT 나 copilot의 목적은

프로그래머를 대체하는 것이 아니다.

추가적인 학습이 어렵다.

chatGPT 의 잘못된 응답에 지적을 할 경우

사람처럼 오류를 인정하고 내용을 정정한다.

실시간 학습이 이루어진다고 착각할 수 있지만

상황에 맞게 반응하는 것일 뿐이다.

좋은 내용을 선별하여 학습 된다고 하지만

언제 어떤 방식으로 이루어지는지 알려진 바 없다.

물론 chatGPT 도 추가 학습을 위한 api 를 공개하겠지만

생각보다 비용이 비쌀 것이다.

현재 같은 GPT3.5 인 Davinci 의 추가학습 모델은

사용시 1k token(750단어)당 0.12불의 비용을 지불해야한다. (23년 2월)

개인에게 부담되는 가격은 아니지만 사용자가 수십명만 되어도

상당한 비용이 발생할 것이다.

저작권 및 기밀정보 문제

공개적으로 코드, 정보를 올린거지만

출처표기 없는 상업적 사용을 달가워할 사람은 없다.

그런 면에서 구글의 바드 는 정보의 출처를

표기할 것이라고 한다.

현재 GPT3.5 모델은 openai를 통해서만 학습 시킬 수 있는데

기업의 경우 기밀 정보 유출에 대한 우려가 있다.

따라서 삼성전자 는 정보 유출을 막기 위해

chatGPT 의 접속을 차단했다.

당연히, 별도 학습된 모델은 특정 계정, 회사에서만

접근할 수 있을 것이다.

그렇더라도 기업입장에서 서버를 외부에 두는것은 큰 부담이다.

chatGPT 대체재

그러면 local 등 에서 사용할 수 있는 chatGPT의 대안들을 알아보자.

모델이름 뒤에 있는 숫자는 parameter의 개수를 나타내며

일반적으로 높을수록 성능이 더 좋은 대신 고사양을 요구한다.

GPT-J 6B

eleutherAI에서 Ben Wang의 JAX를 기반으로 Pile 이라는 데이터셋으로 만든 모델이다.

자체적인 평가 결과 GPT3 Curie와 유사한 성능을 가진 것으로 보인다.

자세한 설명은 huggingface에서 볼 수 있고 간단한 체험도 해볼 수 있다.

최소 12GB의 VRAM이 필요하다.

low vram 버전도 있지만 성능 손실이 존재한다.

GPT-NEOX 20B

eleutherAI 의 최신 모델로 전작 GPT-NEO를 계승하고 있다.

자체 평가에 따르면 Curie보다는 좋지만

GPT3.5 모델인 Davinci에 미치지는 못한다.

textsynth, eleutherAI에서 테스트해볼 수 있다.

최소 40GB의 vram이 필요하기때문에 여기서부터는

A40, A100, RTX A6000 이상이 필요하다.
A100(40G)의 경우 미국 온디맨드 기준 AWS가 시간당 4.1$

GCP가 시간당 3.67$이므로 클라우드에서 구현하는걸 추천한다.

azure 등 더 저렴한 곳도 있으니 자세한 가격은 이 링크를 참고하라.

Task Category Curie GPT-J-6B FairSeq-13B GPT-NeoX-20B DaVinci
LAMBADA Sentence Completion 69.51% 68.29% 70.95% 72.00% 75.16%
ANLI R1 Natural Language Inference 32.80% 32.40% 34.00% 34.00% 36.30%
ANLI R2 Natural Language Inference 33.50% 34.00% 33.00% 34.40% 37.00%
ANLI R3 Natural Language Inference 35.50% 35.50% 34.75% 35.40% 36.83%
WSC Coreference Resolution 49.54% 49.54% 55.44% 50.00% 59.18%
WinoGrande Coreference Resolution 64.56% 64.01% 67.40% 66.10% 69.93%
HellaSwag Sentence Completion 54.81% 36.53% 57.69% 53.50% 63.46%
Average 48.60% 45.75% 50.43% 49.34% 53.98%
EleutherAI 평가 결과(standard language modeling tasks)

OPT-175B : chatGPT 에 가장 근접

meta ( facebook) 에서 공개한 모델로 GPT3.5와

동일한 parameter 갯수를 가진다.

현재 API를 완전히 공개하였으며 비상업용, 연구적 목적에

한하여 자유롭게 사용할 수 있다.

링크에서 체험해 볼 수 있으며 데이터셋, 알고리즘의

차이때문인지 davinci 보다는 성능이 떨어진다.(논문)

클러스터 구성을 지원하며 총 350GB의 VRAM이 필요하고

최대 700GB의 RAM이 필요하다.


관련글

Leave a Reply