编译| 吴说区块链
本期为 Alex 个人 YouTube 频道内容,围绕近期热门的社交产品 Kaito 展开,深入探讨了其产品策略、市场背景及发展逻辑。Alexon 是Ferryboat Research 的CIO。通过分析 Kaito 在 Twitter 平台的选择和其在加密社交数据收集、处理及应用上的特点,阐释了其高定价原因及核心优势。此外,对比了类似项目的方向探索,指出 Kaito 如何通过 API 调用优化、KOL 图谱构建以及社交绑定机制来突破传统数据服务的限制,成功完成战略转型并建立了独特的市场地位。同时,分享了相关行业从业者的创业经验与洞见,直指 Web3 产品化与商业化过程中面临的挑战与机会。
关注 Alex 个人推特:
https://x.com/0xAlexon
关注 Alex 个人 Youtube:
https://www.youtube.com/channel/UCnX1MFimEgZ0_JRP5QBNU7g
Crypto 流量获取方式:投放与裂变模式的区别
Crypto 是一个高波动、高风险,并具有强金融属性的领域。你可能从中发现机会,也可能需要为本金做好完全归零的心理准备。接下来,我们来谈第一个部分:Kaito 以及类似的产品为什么会选择 Twitter 作为主要阵地。
首先,从消费品行业的视角来看,流量结构一般分为两类:公域流量和私域流量。在获取流量的方式上,又分为两种主要路径:投放和裂变。公域流量通常包括 Twitter 和 YouTube,在加密行业中,Telegram 和 Discord 则属于私域流量。相比之下,私域的流量更难以追踪,结构也较为单一。
虽然也有 Reddit 或 Instagram、TikTok 等平台逐渐涉及加密行业,但目前来看,Twitter 和 YouTube 的流量集中度仍然是最高的。如果放到国内环境,那可能需要借助小红书、抖音、快手进行推广,同时还需要 Bilibili 等种草平台,最后通过直通车或万象台进行站内推广。之后,再将流量引导到微信等私域进行转化复购。
总的来说,Crypto 行业的流量获取方式相对简单,因为投放逻辑在当前行业阶段无法承载足够的效能。这就导致整个流量生态的获取方式较为单一,主要集中在裂变和分销上。
不同地区用户获取成本及裂变效果的对比
两年多以前,我们在开发自己的工具产品时,曾经尝试过投放策略。我投入了几万美元做测试,虽然具体数据不方便透露,但一个很明显的结果是:获取一个美国用户的成本大约是获取越南用户的十倍。然而,越南用户的裂变率却显著高于美国用户。这表明,美国用户不太倾向于主动参与裂变推广,比如制作和传播一张落地页的动作相对较少。
在整个加密行业中,我认为获取流量的方式归根结底只有两种:分销和裂变。虽然这两种方式本质上都属于裂变的一种形式,但它们的应用逻辑有所不同。分销更倾向于依靠 KOL(关键意见领袖)或 KOC(关键意见消费者)进行推广,你将产品交由他们背书,再由他们分销给散户或零售用户。
裂变则是通过设计一个高效的裂变机制,打造一套吸引用户主动参与的活动。例如,Kaito 的 Yap 活动就是一个典型案例。用户通过分享一张自己的 Crypto Twitter(CT)账户数据,比如展示有多少个“smart follower”(智能关注者),形成一种类似网易云年度歌单或消费账单的玩法。本质上,这些机制的目的是通过用户自发分享来实现裂变,从而获得更多流量。
解释完这些背景知识,也就可以理解我们当初为什么选择 Twitter 作为主要平台,而不是私域。私域的最大问题在于,难以标准化获取所有内容,并且私域内的内容很难进行有效的加权评估。例如,如果某个社区全是围绕 Kaito 进行讨论,你无法准确评估这些数据的真实价值和影响力。同时,私域平台的分散性也让全面获取相关数据变得非常困难。正因如此,这并不是一个优先的选择。
为什么 Kaito 选择 Twitter 作为主要平台
在 YouTube 这类公域平台上,内容通常适合以长视频的形式呈现。例如,可以是类似我现在录制的这种单口视频、访谈形式,或者是更侧重于教程和交互类的内容,甚至是一些矿机操作指南。这样的内容往往需要长时间的制作和观看,适合那种需要细致讲解和学习的主题。因此,这种内容载体本质上并不适合围绕即时性事件或热点驱动的场景。
这些长视频内容通常更适合处理 PoW(工作量证明)相关主题。所以尽管我们也尝试在 YouTube 和 Farcaster 上引入 Kaito 的监测和分析逻辑,但最终发现,能够有效观测的标的通常是像 Kaspa 和 Helium 这样的项目,而对于像某些短期爆火的 meme token 来说,表现就完全不行了。
相比之下,Twitter 天生适合用作数据平台,尤其是在社交数据集中度非常高的环境中。所有人的营销预算几乎都集中在 Twitter,形成了较高的共识。同时,Twitter 的社交图谱也非常透明化,比如你的关注列表、互动次数(engagement)等数据都以外显的形式呈现。而像 YouTube 这类平台,你很难获取清晰的粉丝关系或互动细节。
最终,选择 Twitter 作为主要平台的原因在于,它是最优解。它的透明化社交图谱和集中化流量结构,为我们提供了明确的优势。相较之下,像 YouTube 这种平台,获取类似的关系网数据是非常困难甚至不可能的。因此,无论是我们还是 Kaito,都更倾向于优先选择 Twitter 作为主要阵地。
Kaito 定价高的两大原因:API 成本与法规限制
我们当时使用了一些“奇技淫巧”,那时 Twitter 还未被马斯克收购,系统中存在一些灰色地带。比如使用教育账号或其他方式获取数据,虽然不完全合规,但在早期阶段,这种方式是普遍存在的。对于 Kaito 这样早期的项目,我猜测他们最初也采取了类似的策略,通过这些非正式途径获取数据。然而,当产品开始商业化时,这种方式显然无法继续使用。
两年前,他们完成融资并推出产品时,便只能依赖商用 API,而马斯克收购 Twitter 后,也封堵了许多不规范的途径。商用 API 的使用成本相当高,并且随着调用次数的增加,这种成本会呈线性增长,而非下降。
第二个导致定价高的原因是 Twitter 的法规限制。即便是一家公司使用商用 API,也存在每月调用次数的上限(具体次数记不清了)。这意味着,如果产品特别火爆,那么调用量的限制会使 ToC(面向消费者)的模式难以为继。最终,我们和 Kaito 在类似的时间点都选择了 ToB(面向企业)模式,这是一种可以最大化有限调用量经济价值的最佳方案。对 Kaito 而言,这是几乎没有其他可选的方向。
具体而言,由于调用量固定,唯一的办法就是通过提高单个用户的价值来实现更大的经济回报,通俗来说就是涨价。而这恰恰是产品的必要选择,否则整个商业模式无法成立。
我了解到他们的延迟是 15 分钟左右,与我们的延时差不多。需要理解的是,延迟时间越短,所需的成本便越高。这是因为需要以更高的频率扫取历史数据,而这种成本的增长是指数级的。延迟时间的设定也直接影响了 API 调用的效率与经济可行性。总而言之,Kaito 在 API 调用成本和法规限制下的高定价有其合理性。
Kaito 产品方向的演进与选择
接下来谈一下 Kaito 的产品方向,以及为什么他们从 “trending” 类型的产品发展到现在的 KOL 类型的功能。这里首先给出一个小结论 — — 并不是教别人怎么创业,而是分享我们自己的经验。我们曾经尝试过多个方向,发现有三个方向可以基于这一套逻辑进行衍生。
第一个方向是自用的纯 Alpha 工具。Kaito 的 CEO 在一次 Podcast 中提到,他们也曾经考虑过这个方向。如果工具只是用于 Alpha 类型的用途,那么越开发就越倾向于内部使用,而不适合大规模用户。我们也遇到过类似的问题 — — 如果不收费,用户可能不会珍惜;如果收费,为什么不直接自己用?这类问题使得 Alpha 工具通常更适合自用,而不是产品化。
我们自己曾经用类似 Kaito 的逻辑开发了一套工具。这套工具的应用使得我们经常能够在项目火爆之前发现它们。我们考虑过用这套逻辑给交易所做 listing 工具。例如,我曾经想与 Binance 合作,免费提供这套工具来优化他们的 listing 选择标准。因为某些项目,比如 ACT,在我们基于 Twitter 数据分析的“上帝视角”中根本没有显示任何值得关注的表现,但仍然被列上交易所。这种不合理的选择,本可以通过数据驱动的工具避免。
此外,我们也研究过将 Alpha 逻辑应用于量化交易策略。我们在 Badcase 上对前 200 或前 100 的项目进行测试,基于文本挖掘、情绪分析等进行交易决策。测试结果显示,这种策略对市值较小、易受情绪和事件驱动的项目更加显著有效,而对于市值较大的项目效果有限。我相信 Kaito 也做过类似的研究,毕竟他们的 CEO 有交易背景。从这一点来看,我们和 Kaito 在早期的出发点和逻辑上有很多相似之处,但最终选择的道路却不尽相同。
Kaito 的社区新闻工具探索及其行业潜力
在当前的模型框架下,一些现象级的主题,比如 meme 和 NFT,是非常显著的。它们在这套逻辑中能表现出价格提升的潜力。然而,这类现象却无法通过标准化的程序化交易完全解决,因为它们仍然需要较强的人工干预。这种特性使得它们虽然有效,但缺乏标准化。至于 Kaito 内部是否有类似方向的产品并用于自身,这点我就不清楚了。
第二个值得探索的方向是新闻类和 GPT 类产品。这是什么意思呢?举个例子,像现在的 Alva(原 Galxe)这种 Web3 助手,通过集成 Twitter 的分时数据,就可以获取所有推文的语料,并结合 ChatGPT 的接口进行加工。通过在前端调整 prompt(提示语),可以将这些数据以更直观的形式输出,从而生成许多即时性的社区新闻。
举个简单的例子:比如你看到大小写“elisa”之争时可能一头雾水。这时你可以直接问这个工具:“大小写的 elisa 之争的原因是什么?发起人是谁?” 通过这种方式,工具会基于最新数据总结出答案。而原版 GPT 无法做到这一点,因为它的数据有固定的截止日期,通常无法提供最新半年内的内容。你只能自己将相关语料爬取下来喂给 GPT,再通过提示语来总结逻辑。这类工具的潜力巨大,是一个值得深入探索的方向。
从目前来看,Kaito 似乎已经在探索这类产品或尝试类似的方向。我提到的 Alva 产品,就是一个不错的例子。它通过调用 Rootdata 等加密领域相关的 API,整合了大量行业数据,点对点地连接用户与行业信息。然而,Alva 存在的问题是数据清洗的质量不够高。他们花了大量时间对接数据网,但在数据精度和清洗的细致程度上仍有改进空间。相比之下,Kaito 的优势在于其数据的精准性,这是毋庸置疑的。
举个实际案例,最近关于大小写“elisa”之争的问题,我通过这类工具获得了快速答案。这类产品在加密行业的应用确实能显著提升效率。两年多以前,我们也开发过类似的工具,测试结果显示,它确实能够提高工作效率。然而,当我们尝试商业化时,遇到的核心问题是用户的付费意愿不够强。尽管工具能够提升效率,但并未针对某个核心痛点,这使得用户缺乏强烈的购买动机。
此外,由于这类工具的调用成本较高(每次调用 GPT 接口都需要支付费用),导致产品毛利率偏低。因此,虽然这类工具有一定意义,但其商业化面临较大挑战。许多调用行为更多是出于促活目的,实际产生收入的场景有限,这些都成为了需要克服的难题。总的来说,这一方向虽然潜力巨大,但在实际落地中仍需更多优化和突破。
数据准确性与 KOL 图谱构建在营销中的作用
在探讨这些工具时,有一个核心问题:它们如何实现营收?如果单靠 VIP 模式,让用户无限次调用 API,这种产品很难有大的盈利空间,但它的存在是有意义的。它可以直接利用 Kaito 的逻辑,读取推特数据,用于生成和分发自媒体内容,比如类似“吴说”或其他形式的社区新闻。这类工具不仅能提升效率,还能帮助项目方在多平台上分发内容,比如通过 AI 生成短视频发布在 TikTok,或者直接在推特发布。
我认为,这种产品方向并不是只有 Kaito 或 Galxe 可以尝试,像 Mask 这样的项目其实也非常适合做这件事。奇怪的是,Mask 目前似乎并未深度涉足这一方向。如果有 Mask 团队的小伙伴听到这些建议,希望你们能尝试考虑一下。
对于 Kaito 来说,其当前的产品方向已经表明他们希望走向更大的市值,而不是沿着 Alpha 工具的路线继续前进。Alpha 工具虽然可以盈利,但缺乏产品化的潜力。如果只专注于此,它最终会局限于内部使用,无法形成面向更大市场的产品。Kaito 通过转向 KOL 图谱构建,显然是为了突破这一瓶颈。
早期对 Kaito 产品感兴趣的用户,与当时关注我们工具的用户群体几乎一致。我们的工具在早期也被建议出售给一些交易公司或二级基金。虽然这些交易公司更关注盈利性,但这种方向会陷入“是否盈利”的循环中。相比之下,KOL 图谱则为营销投放提供了精准支持,通过数据准确性提升投放效果,从而增加项目方的营销价值。
数据准确性是关键所在。虽然市面上有许多公司可以采集推特数据,但数据是否精准是另一回事。在公开市场上,Kaito 和我们早期的工具是为数不多能够做到准确的。数据准确性的核心在于“洗数据”,这是最困难和关键的环节。采集数据相对简单,但对数据进行加权和清洗则需要大量的反复测试和逻辑调整,这往往需要经验和直觉结合。
举例来说,中文社区的 Crypto Twitter(CT)往往存在较多噪音,权重需要降低。这种噪音导致中文 CT 通常比英文 CT 滞后 24 到 48 小时。如何有效清洗和调整数据,是一项“看家本领”,也是公司核心竞争力所在。
通过精准的 KOL 图谱,Kaito 能够帮助项目方优化投放策略,提升投放的准确率。这种产品不仅能协助项目方实现更高效的营销,还能从中获得营销费用,形成可持续的商业模式。选择这一方向,正是 Kaito 在市场竞争中展现出的聪明策略。
Yap 活动背后的战略逻辑与飞轮效应
在整个 Crypto 领域,投放广告一直是一个相对模糊且低效的行为。目前的营销机构本质上更像是维持通讯录的简单工具,其手段相对单一。在这样的背景下,Kaito 提供的工具可以帮助项目方判断哪些 KOL 值得投放,哪些不值得,通过数据分析提供有据可依的参考。这种精准性极大地提升了广告的效率。
Kaito 通过两个关键指标来优化 KOL 投放:正确性 和 核心圈层 。正确性是指 KOL 的判断是否准确,比如他们是否在某个项目上涨前就已经讨论,而不是在项目上涨后才参与。每次分享或推广,KOL 的判断是否正确都会被记录和加权,影响其权重评分。这一切都可以通过时间戳和数据分析工具反复验证。
核心圈层(在 Kaito 中称为“smart follower”)则衡量一个 KOL 影响力的深度。如果一个账号有更多的聪明账户(即 smart follower)与之互动,其权重评分会更高。这样可以帮助项目方筛选出真正有影响力的 KOL,而非仅仅拥有大量粉丝的账号。
Kaito 的 Yap 活动展现了其战略转型的成功。这一活动通过使用免费的 KOL 杠杆,大幅减少了营销成本。传统的营销需要逐个联系 KOL 并支付高昂的费用,而 Kaito 直接公开了一个页面,通过权重算法为 KOL 提供分配奖励。这种方法既简化了流程,也通过数据透明化提升了可信度。这种模式让许多 KOL 自愿参与推广,帮助项目迅速扩散。
同时,Yap 活动还解决了潜在的风险问题。考虑到未来如果 Twitter 更改 API 规则,Kaito 通过 TGE 的方式让所有 CT 用户将账户绑定到其后台,主动授权数据使用。这种方式使 Kaito 逐渐脱离对 TwitterAPI 的依赖,并开始掌握自己的数据资产。这不仅让 Kaito 具备了更强的独立性,还形成了供需双方的正循环:随着更多 CT 用户绑定,项目方的兴趣增加,形成一个数据撮合的飞轮效应。
最终,Kaito 通过这种模式创造了类似于阿里妈妈或巨量引擎这样的商业想象力,成为加密行业中一个成功的营销生态平台。当前来看,这一战略执行得相当成功。
创业反思:非典型精英背景的从业者如何突围
如果所有 CT(Crypto Twitter)用户都将自己的账户绑定到 Kaito 的后台,那么在未来进入二级市场时,Kaito 可以明确告诉外界:“这些数据是我的。”无论是项目方还是 CT 用户,这一绑定行为都能形成数据共识和趋势。这正是 Yap 活动背后的核心逻辑。
在结束 Kaito 话题之前,我想分享一个关于我们自己的小故事。我们在 Kaito 融资之前,也开发过类似的产品,甚至可以说是同期进行的。两年多前,我们同时尝试了 Alpha 工具和 GPT 类工具的方向。当时,正值行业低谷,我们团队不太擅长社交,行业内认识的人也很少。尽管我们的产品有趣且具备潜力,但介绍我们给 VC 的朋友寥寥无几。
当时,我们接触了四家 VC,其中一家愿意跟投,但需要我们找到领投方。而其他三家直接忽略了我们,原因之一是我们的背景并不符合典型的精英创业者形象。他们没有深入了解我们的产品背后逻辑,甚至未尝试去想象其潜在的价值,而是简单地一票否决了。
直到后来,我们通过 YouTube 等平台逐渐被更多行业人士关注。这些观众大多是业内的机构和从业者。即便如此,我仍没有向那些曾经与我们接触过的 VC 提及过去的事情,因为稍显尴尬。有趣的是,我后来在时间线上看到曾经接触过的 VC 员工现在对 Kaito 赞不绝口,这让我感慨万分。
我们最终选择了走 Alpha 工具的路线,这一选择与我们当时的社交圈有限有关。我们认为如果没有外界帮助,很难将 ToB 的产品成功商业化。我们希望通过找到知名 VC 的认可,借助他们的资源完成市场扩展,而不是仅凭我们自己艰难前行。
对于那些非典型精英背景的创业者,我有一些建议。VC 更关注的是连接和关系网络,而不一定关注你的产品本身。然而,我始终相信好的产品能够自我发声。如果你的产品真的好,就不要畏惧向外展示。如今,我也意识到构建社交影响力的重要性。通过社交网络,你不仅能够认识更多人,还能为未来创业积累一定的知名度和信任度。
对于观看我影片或者浏览我 Twitter 的朋友们,我希望传递的信念是:无论你是否有精英背景,只要你的产品足够优秀,我都愿意为你提供帮助。好的产品和想法比华丽的履历更加重要。只要你拿出的东西能让我认可,我会尽我所能帮助你找到资源。