date
category
tag
summary
月之暗面的 Kimi Chat 终于憋不住要向用户收费了,推出了6种打赏方式
- 5.20元:一朵花,优先使用4天。
- 9.99元:加鸡腿,优先使用8天。
- 28.8元:喝咖啡,优先使用23天。
- 49.9元:充充电,优先使用40天。
- 99.0元:吃顿饭,优先使用93天。
- 399 元:一起登月,优先使用365天。
按399RMB一年来看,比 GPT 4 一年240USD划算
我对Kimi推出打赏的一些产品思考:
关于商业模式,Kimi免费提供基础产品或服务来吸引用户,提高用户粘性;同时设置付费门槛来提供高级功能或服务,即免费增值服务模式,创造落差促进付费用户转化,有利于平衡用户体验与商业利益。
关于打赏,这个定价策略体现了心理定价,通过设置9.99元/8天的价格,降低用户的支付门槛,提高付费转化率。这也属于一种众筹模式,让用户感觉自己是在支持Kimi的发展,而非单纯的消费。
关于现状问题,大模型的运行成本还是太大了,Kimi需要维持算力以供良好的用户体验,还要证明其盈利能力,以满足投资者的期望。现阶段的商业模式还处于1.0版本,未来还要不断探索新的盈利场景,来实现更多元化的收入来源。
前不久,2024 年 3 月 18 日,Kimi 开启了 200 万字超长无损上下文“内测”。
200万字无损上下文是什么概念?
下表是主流的LLM上下文长度(截至5月底),上下文最长的是Gemini 1.5 Pro,有 1M token,再看看GPT-4o,是128k token。
1K token约500个汉字,按比例换算,200万字约4M token,也就是说Kimi的上下文长度是Gemini 1.5 Pro的4倍,是GPT-4o的31倍。月之暗面在长上下文处理能力的突破,确实挺惊人。
LLM | Context Length | Number of English pages* |
GPT-4o | 128K | 342 |
GPT-4-Turbo | 128K | 342 |
GPT-4 (8k) | 8K | 22 |
GPT-4 (32k) | 32K | 86 |
GPT-3.5-Turbo | 16K | 43 |
Claude 3 Haiku | 200K | 534 |
Claude 3 Sonnet | 200K | 534 |
Claude 3 Opus | 200K | 534 |
Gemini 1.5 Pro (128K/1M) | 1M | 2667 |
Gemini 1.5 Flash (128K/1M) | 1M | 2667 |
Mistral Small | 8K | 22 |
Mistral Medium | 8K | 22 |
Mistral Large | 8K | 22 |
Groq Llama 3 70B | 8K | 22 |
Groq Llama 3 8B | 8K | 22 |
Groq Mixtral 8x7B | 32K | 86 |
Groq Gemma 7B | 8K | 22 |
Context length comparison.
(*Assuming 500 words per pages.750 words per 1k tokens.)
上下文长度比较(*假设每页 500 字,每 1k 个词组 750 字。)
多亏了橘子老师和Kimi抽奖,我通过了Kimi的“鹿康太”白名单!
那问题来了,200万长度无损上下文可以干什么呢?
官方说相当于能够一口气精读 500 个,甚至更多数量的文件,快速分析所有文件的内容,支持通过自然语言进行信息查询和筛选,能提高许多信息处理效率。
实际上可以运用的场景有:
- 梳理代码结构
上传一个代码仓库里的源代码,可以询问 Kimi 关于代码库的所有细节,即便是毫无注释的陈年老代码也能帮助你快速梳理出代码的结构。
(源自官方)
- 辅助筛选简历(粗筛选)
公司 HR 可以基于业务需求,快速从最近的 500 份简历中,让 Kimi 快速找出有某个行业从业经历,同时从计算机类专业毕业的求职者,更加高效地筛选和识别合适的候选人。
(源自官方)
- 辅助阅读长篇小说/故事/剧本等(娱乐性)
从长篇小说、故事或剧本中,重新发现值得玩味的蛛丝马迹,进行深层细节的挖掘,是很多影视娱乐 IP 的爱好者热衷的事情。
如果将甄嬛传全集几十万字的剧本传给 Kimi,然后提问剧本中有哪些细节表明甄嬛的孩子是果郡王的。
Kimi 能在不同时间段、各个场景的故事情节中,深入挖掘甄嬛、果郡王的情感线以及和他们孩子的真相,堪比一个看了好几十遍电视剧的“甄”学家。
(源自官方)