昨天忘了一件事:招聘

有朋友在问:为什么大模型方向国产AI芯片有机会?

我的观点是:

  • 大模型没有那么多“技术负债”与“技术鸿沟”,大家可以说终于在一个起跑线了,起步的机会相当;
  • 过去的技术积累肯定有价值,但不像CV泛化性能不修改代码迁移既要、又要、还要**成为编译、算子、工具团队的“不可能完成的任务”;

  • 训练可以做PR和中小规模的微调,推理落地才是真机会,而推理对于目前绝大多数芯片来说,是计算性能过剩的;
  • 所以,我相信有决策快的团队针对大模型的新的芯片设计应该差不多了,就差老板拍板赌一把模型结构三年不会颠覆了;

再问:这种专用芯片做出来,CV市场怎么办?

我的想法是:

现在大家手里人手起码一颗芯片,干的快的云端芯片手里都有三颗了,这些芯片都回来了,该怎么卖就怎么卖,总不能放仓库供起来吧?

CV卖不掉的芯片,为啥到了大模型就一定有竞争力了(终于能卖掉了,不代表有竞争力,那是时间窗口的问题)?

换句话:大号眼看练废了,弄个小号打打,说不定柳暗花明呢?

昨天忘了答应朋友的事情:帮着发个招聘的信息,看看年底有没有有缘人。

具体哪家我就不在这里写了,不太好,感觉被充值了🤐

编译

编译前端,后端都需要。

后端相对更缺,主要还是希望看经验好一点的,所以就“更缺”,没啥毛病。

要求:

  • 目前在折腾MLIR最好
  • 自己看过MLIR,但是现在公司用TVM也能聊聊看

推理工具

这个没啥好解释的,就是做类似:

  • TensorRT
  • vLLM
  • TGI

这样事情,大家都在做,技术栈需求无须多言。

其他

其他芯片软件栈相关的也需要,没上面两个那么那么缺人干活😁。

所以,运行时SDKPyTorch后端集成分布式这些方向的兄弟们有想法,应该也是可以聊聊的。

好了,补上了,今天就到此结束了。

今年,也基本上到此为止了,新年快乐🎉。

欢迎加我的微信“doubtthings”,欢迎交流与探讨。

欢迎关注我的公众号“书不可尽信”,原创文章第一时间推送。