A100, A6000 등이 물론 딥러닝에 특화되어 있기는 합니다만 일반 게임용 GPU가 무쓸모하지는 않습니다.
GPT 등의 트랜스포머 계열 모델 학습은 보통 크게 두 가지로 나뉩니다. 프리트레인과 파인튜닝.
프리트레인은 모델을 첨부터 학습시키는 거라고 보면 되고, 0에서 출발하기 때문에 당연히 엄청난 자원이 필요합니다. 거기에 말씀하신 대로 GPU 수십 장, 혹은 구글 TPU 같은 장비가 사용되고요. 학습에 며칠, 몇 달이 걸린다고 하는 게 이런 경우죠. 지금 GPT 새 버전 학습시키고 있는 것도 이와 관련됩니다. 파인튜닝은 이미 프리트레인된 모델을 가지고 목적에 맞게 '튜닝'해서 쓰는 거고 여기에는 VRAM 12GB급 GPU 1장으로도 충분한 경우가 많습니다. 물론 모델이 크면 클수록 더 많은 자원이 필요하지만, 프리트레인에 비할 바가 아닙니다
3090 같은 게임용 GPU 4장, 8장씩 병렬로 연결해서 적당한 규모의 프리트레인하는 것도 가능합니다. A100이나 구글 TPU 같은 초고사양 장비 쓰는 것에 비해 시간이 좀 더 걸릴 뿐. 이 정도만 해도 일개 학생이 만지는 PC 수준이 아니라, 대학 연구실 서버 수준의 고급 장비로 취급됩니다. 요새 유행하는 AI로 그림 그리는 것도 파인튜닝과 비슷한 방식이며, 굳이 A 시리즈 같은 것 없이 일반 게임용 GPU 1장으로도 충분히 가능하죠.
물론 용팔이 형님들이나 황 회장 등이 이때다 싶어서 선동하는 것도 없진 않겠지만, VRAM 큰 게임용 GPU들의 위상이 최소한 지금보단 훨씬 높아질 거라고 생각됩니다.