运行 llm 需要一定的显卡内存。 但是市面上的显卡内存超过 12G 的话就贵了。
因此有个猜想的方案, 使用 可以分享内存的集成显卡(例如 AMD 的)
然后可以把内存例如 32 G 分配给 集成显卡, 从而达到运行 大参数模型的目的。
当然,我知道 集成显卡算力差,但是有时候验证原型花一些时间等待是可以接受的。
请问有没有人这么做过,或者是否可行?
感谢赐教先。