商业密码
-
抖音大撤退后,快手能否拾起短视频巨头的游戏梦?
在大大小小对快手游戏板块的报道中,《代号:诡秘》一直被定性为“快手游戏首款自研项目”。根据乌贼爆料,《代号:诡秘》将是一款RPG游戏,而在《诡秘之主》中存在大量在前期毫无战斗能力的序列职业,例如“观众”序列的序列9“观众”、序列8“读心者”、序列7“心理医生”,或是“通识者”序列、“耕种者”序列,这些并不具备战斗能力的序列要如何与RPG要素结合呢。
-
Sora只用于娱乐?智能制造第一个不服
一个有意思的现象是,自从2022年底ChatGPT大模型推出后,技术派、大模型厂商、创业者出来说得多,但制造企业和行业人士鲜有发声。
不过,经过过去半年的摸索和尝试,2024年,伴随政府发展新质生产力,以及一些央国企在大模型应用上的动作加快,在智能制造业,尤其是在那些变化快、竞争激烈的行业,应用大模型创新的进程正在提速。 -
315倒计:蕉下、Lululemon和“毒童鞋”们会榜上有名吗?
事实上,如果只是个别服装品牌存在走线不齐、线头多等工艺质量问题,其实还不足以登上315晚会,但偏偏近年来服装行业似乎又开始把不合规的“触手”,延伸到了婴幼儿童鞋服领域,甚至还多次被曝出了“毒童鞋”事件。
再来看童鞋领域,2019年,国家市场监管总局抽查了4个省90家企业生产的90批次童鞋产品,主要针对产品耐磨性、重金属总量、邻苯二甲酸酯等21个项目进行了检测,其中15批次产品不合格,不合格产品包括了回力这样的知名品牌。 -
直营还是加盟?串串“大佬”:用“类直营”模式稳固根基、扩大规模
既综合了加盟连锁和传统直营连锁的优势,同时又避开了两种模式的劣势,马路边边提出类直营模式,为行业带来新解。
但就在最近,红餐网注意到,在串串火锅这个赛道,头部品牌马路边边发布的2024年发展规划中提到,今年品牌将重点发力类直营模式。
相较传统的加盟模式,马路边边的“类直营”模式着明显的三大优势:
1、产品的“实验田”,有助于及时调整产品口味、定价
在串串火锅领域,如何避免产品同质化是如今每个品牌都必须解决的难题。 -
中国创业者,不敢追 Sora
在追赶Sora之前,目前在对话大模型领域尚处在GPT-3.5的国内头部玩家,对于是否要追赶上GPT-4的水平,“实际上他们也都有担忧:一方面想要证明自身价值,至少要做到Meta开源模型Llama。
面对越拉越大的投入产出比,在江一看来,国内大模型厂商担忧的,不是能不能做出Sora,而是投入重金研发后,做着做着突然被硅谷的开源模型突袭,“你的价值就几乎归零了。 -
维达国际“卖身”,江门富豪李朝旺套现59亿
Essity成为维达国际大股东后,双方业务曾进行深度整合,维达国际以11.4亿港元的总价整合Essity位于中国大陆、香港及澳门的业务,在免专利权费的基础下取得Essity纸巾品牌“Tempo得宝”位于上述区域的永久及独家使用权。
维达国际此次涉及要约收购的股份,主要为大股东Essity所持有的6.21亿股和创始人李朝旺所持的2.53亿股,上述两方持股比例分别为51.59%和21.04%,合计占维达国际总股本的72.62%。 -
联手VAC办电音节,小杨哥为何疯狂“搞”音乐?
3月8日,三只羊集团召开“DXYG-VAC电音节”新闻发布会,正式宣布“DXYG-VAC电音节”(前缀为“大小杨哥”的缩写)将于5月3日-5月4日在合肥骆岗公园举办。
据赵灿透露,在电音节本身之外,小杨哥和VAC其实还有更多产业上的考量,比如在小杨哥的电商板块,利用直播带给电音艺人更多曝光,同时发力线下的电音节,延展线下酒吧、周边,如果再往后涉及到综艺,就有可能形成较完整的产业链。 -
卖一辆亏11万,蔚来汽车去年亏损超211亿
「不二研究」据蔚来汽车最新财报发现:2023年,蔚来汽车营收556.2亿元,同比增加12.9%。
据蔚来汽车最新财报显示:2023年,蔚来汽车营收556.2亿元,同比增加12.9%。
此外,蔚来汽车研发成本依然高企,2022年,蔚来全年的研发费用为108.36亿元2023年,蔚来研发费用为134.31亿元,同比增长23.90%。 -
中东斋月电商激战:TikTok强势进击,女性经济势不可挡
另据数据分析公司Data.ai显示,在2023年斋月期间,中东和北非地区消费者支出排名前三的市场分别为沙特阿拉伯、土耳其和阿联酋,增长率依次为5%、7%和6%。
在沙特改革开放纲领性的“2030愿景”中,明确提出要提高女性的工作参与率,在2030年将劳动人口中的女性占比从2017年的22%提升至2030年的30%,这一目标被飞速实现,2023年第一季度,沙特女性就业率就达到了31%。 -
大模型2024:先把价格打下去
OpenAI从成立到推出GPT-4,足足用了8年,而Mistral。AI同样未公布大模型的具体参数与训练数据Token数,但此前谷歌应用MoE开发出的GLaM模型参数量达12000亿、训练数据16000亿token,分别是GPT-3.5的6.8倍和5.3倍,其实际的训练成本却只有GPT-3.5的三分之一也印证了MoE框架的高效。