您的位置:首页 > 运势

gpon和epon的区别(GPO)

gpon和epon的区别(GPO)

你知道GPO是什么吗?未来它或将在涂料行业大行其道!

GPO(Group Purchasing Organization)翻译成中文就是集团采购组织。

所谓GPO其实是一种通过集合采购量,并运用规模经济杠杆与生产商、分销商及其他供应商进行谈判,来帮助涂料生产企业实现成本节约与效率的组织。

作为采购中介商,GPO对于涂料生产企业购买的产品没有所有权。GPO并不购买任何产品,他们只是根据其成员的采购需求,发出招标书,让供货商来竞标,而会员可向得标者采购或者自行找供货商来供货。供应商需要支付2%~4%的采购服务费用给GPO。

随着企业运营费用的急剧上涨及产品日益同质化竞争,涂料生产企业降低成本的压力越来越大,这必将促进GPO的发展。研究结果显示GPO有可能为涂料生产企业节约10%~15%的采购成本。

目前GPO在中国已开始兴起,但仅限于医疗领域的药品。在国内,上海市和深圳市是目前仅有的两个推行GPO的城市。

从目前看来两个城市推进GPO过程中也暴露出一些质疑,如:规则不明、标准不清、被暴暗箱操作、申诉或投诉渠道缺失、综合成本过高变相以药养医等等。

GPO在涂料行业将会大行其道,分析来看有以下三点原因。

1、涂料生产企业使用的原材料品种太多

对于涂料生产企业来说占采购金额80%的原料在品种上占比可能不到5%。对于这一部分大宗原材料,上游生产商集中度高,而下游成千上万的涂料厂实际上处于一种市场议价弱势的地位。

除了钛白粉和环氧树脂,其他涂料用的主要原材料尤其是所谓间接原材料主要应用领域不在涂料,例如纯苯,例如PO,又例如苯乙烯等等,这一部分的原材料由于通用性特别强。

涂料生产企业之间实际上不存在保密一说,更迫切的需要团结起来一起议价和采购;而对于小众的原材料,由于品种实在太多,每个品种采购的数量又太少,各涂料生产企业处于更加弱势的市场地位,很多的贸易商就是依赖于这个生存的。

2、GPO实际上就是采购外包

如果涂料生产厂能够将所谓的大品种进行采购外包,加入GPO一定比亲自上阵采购综合成本要低。

例如钛白粉,尽管市场上大约70%的钛白粉被用于涂料的生产,但很多中小企业一个月的用量也就是几吨至几十吨之间,你根本不具备与拥有超过十万吨产能钛白粉生产企业议价的可能性。

而GPO可以在放大一百倍甚至几百倍的基础上形成强有力的议价能力,如果一个GPO一年能采购超过十万吨钛白粉,它的议价能力对任何钛白粉生产企业都是令人恐惧的。

而十万吨钛白粉如果分到两千家生产企业也就是区区50吨/年的用量。对于数百个小品种而言所有涂料厂的采购实际上都希望寻找有效的采购外包渠道。

这些物料采购成本占比不大,但耗费的时间真不少,而任何一个涂料生产企业的采购团队都不希望将大量的时间花在小品种物料的寻找和议价上面。

3、GPO可以有效的帮助涂料生产企业优化采购渠道

通过GPO有可能将涂料生产企业亲自操盘的采购品种减少三分之一甚至更多。

因为好多助剂和颜料甚至树脂,尽管由不同的企业所生产,但实际的性能基本是一致的。

减少采购品种意味着什么?意味着你的财务面对的供应商的数量大幅度减少,仓库管理大幅度简化,而生产的过程更容易实现自动化,这些都意味着生产成本的大幅度降低。

通过GPO将这些品种的需求直接放大1000倍,各涂料生产企业采购成本下降20%甚至更多,绝对不是说说而已(当然这指的是助剂)。GPO还能够有效的帮助企业谢绝“暗箱操作”,培养信得过的采购团队,“谢绝”劣质供应商和伪劣产品的流入。

将来的几年,全国有可能会大范围掀起GPO的高潮,但一定要深入进行制度设计,只有保证GPO的属性是尊重市场规律的,维护各参与方的利益,才能保证GPO平稳有效的运行, 达到应有的效果。

GPO绝对有前途,尤其是在涂料行业。关键是怎么干?一定是在绝顶高手( 有丰富采购阅历和经验) 带领下才能玩得转的,我们期待着涂料领域的GPO的出现,因为这将是各涂料生产企业的福音。

杨向宏

买化塑供应链首席战略官、首席经济师

Google发布Gemini,暗示GPT-4不是「原生」多模态

「真正对标GPT-4的Gemini Ultra并没有出现,要到明年年初才正式发布。」

撰文:吴洋洋

编辑:王杰夫

Key Points

Gemini展示了与环境实时、准确互动的能力,GPT-4目前不具备这种实时能力;

相较于GPT,Gemini使用了更多来自Youtube的视频数据训练模型;

Gemini Ultra还没有就位的时候就发布Gemini,与ChatGPT和Copilot的加速有关,12月5日,微软的Copilot接入GPT-4;

Gemini提供了3种尺寸的模型:Ultra、Pro和Nano,使其可以在从数据中心到移动设备的任何设备上运行;

与「原生」多模态对立的是「近似」多模态,或者「拼凑」多模态;

在通往AGI的道路上,Google和OpenAI都在回到AlphaGo。

当地时间12月6日,Google宣布Gemini 1.0版正式上线,兑现其在今年5月开发者大会上承诺的多模态模型——这是Google商用化的第一个多模态模型,对标OpenAI今年3月发布的GPT-4。

晚了大半年才发布,Google刻意在发布会上展示了Gemini一些连GPT-4都没有的能力:它能够通过摄像头边观察边与人互动。比如,当演示者拿起画笔在纸上手绘一个小鸭,Gemini就会边看边描绘它看到的整个过程:「我看到你把一张纸放到了桌上」「我看到你画了一条波浪线」「第二条线很平衡」……当一只脚开始在波浪形下出现时,Gemini紧接着说:「它看起来像一只鸟」,演示者继续画出一条像水纹一样的波浪线,Gemini马上反应过来,「这只鸟在游泳,它有长脖子……它是一种鸭子」。猜对答案后,它还会多几句嘴说:「鸭子是一种家禽……」

右边的Gemini能够实时理解左边视频内的信息

与环境的实时、准确互动是人工通用智能(Artificial General Intelligence,AGI)的重要指标。想象一下,只要给这个AI装上身体和眼睛(摄像头),当它出现在家庭、办公室、工厂等生活场景中,你会越来越难以区分谁是AI,谁是真正的人类。

GPT目前并不具有Gemini所展示的这种实时、准确的互动能力,其最强版本目前也只能接受静态的文字和图片数据,不能接受和处理动态视频数据。Google试图向外界展示这样的雄心:采用不同于OpenAI的新技术路径,以及在端侧智能上的先人一步。

Gemini的中文意思是双子星,1960年代美国宇航局的同名项目(Gemini Project)促成了阿波罗登月。它意在纪念Google今年4月将旗下两个AI团队——DeepMind与Google Brain合并这一重大组织变革。这一合并创建的Google DeepMind被赋予追赶OpenAI GPT-4的重任,追赶也就成了Google这一年的关键词。。

此次Gemini发布会本身也是仓促的,它甚至都称不上会,所谓的发布不过是在官方网站上更新了文章与视频。就在本周一,还有传言称Gemini的发布将推迟到2024年1月。当然确实还是出现了推迟,Gemini按照能力由弱到强分为Nano、Pro、Ultra三个版本,现在可用的只有前两个版本,真正对标GPT-4的Gemini Ultra要到明年年初才正式上线。

这一切都可以看出,Google等不及了,在整个公司投入全部资源追赶OpenAI一整年后,它需要在自然年结束前交出一份答案。

「近似」多模态 vs「原生」多模态

发布Gemini前,DeepMind创始人、Google DeepMind首席执行官哈萨比斯(Demis Hassabis)接受了《连线》杂志采访,他在采访中将Gemini称为「原生」多模态,区别于其他既有多模态模型(比如GPT-4、百度文心4.0)的「近似」多模态,意思是后者是将多个模态(文本、代码、音频、图像和视频)先独立训练成不同模型,然后再拼凑在一起形成的,而Gemini一开始就把多种形式的数据放在一起训练,并使用同一个模型完成不同模态的内容输出。

以GPT-4为例,3月发布时它号称多模态,OpenAI CEO Sam Altman也在发布会现场展示了GPT-4如何将一张手绘草图变成网站代码,但这种多模态能力自发布会结束至今从未真正上线。

按照OpenAI首席科学家Ilya Sutskever与英伟达创始人黄仁勋今年4月的对谈,OpenAI也曾使用图像数据训练GPT-4,这种多模态训练被认为是GPT-4比只用文本训练的GPT-3.5更聪明的关键原因。但这种对图片的理解能力并没有在输出端转换成图片生成能力。

9月25日,OpenAI发布的GPT-4升级版GPT-4V(GPT-4 with vision)似乎也不具备多模态生成能力。因为在10月更新的ChatGPT应用中,其增加的语音功能来自于「语音转文本」模型Whisper、视觉功能则来自9月22日发布的文生图模型DALL-E 3。

OpenAI没有公开解释过GPT-4V是否就是GPT-4加上DALL-E 3。GPT-4对这一问题的回答是:「在GPT-4首次公开展示的时候(2023年3月),DALL·E 3尚未发布。因此,当时GPT-4的图像生成展示实际上是基于DALL·E 2或其先前版本的集成。DALL·E 2是在2021年推出的,且在后续版本中不断改进。这种集成使得GPT-4能够根据文本提示生成图像,虽然图像生成的实际处理是由DALL·E系统完成的,而不是GPT-4本身。」

「对于某些任务来说,这(指近似多模态)没问题,但你无法在多模态空间中完成深层复杂的推理。」哈萨比斯说,而且相较于GPT-4V,Gemini使用了更多视频数据训练,这使它具有处理视频的能力,而GPT-4V的多模态尚不涉及视频。在视频数据方面,Google有大量自有数据,包括视频网站YouTube上900多亿分钟的视频和字幕。

一个模型有3个版本,分别对标GPT-3.5、GPT-4,还有一款适用于移动设备

具体来说,Gemini 1.0提供了3种尺寸的模型:Ultra、Pro和Nano,使其可以在从数据中心到移动设备的任何设备上运行。

Gemini Ultra ——规模最大、功能最强,适用于高度复杂的任务,在数据中心运行,对标GPT-4;

Gemini Pro ——适用于各种任务,通过Google Cloud提供服务,对标GPT-3.5;

Gemini Nano ——最小版本,适用于移动设备,比如手机。

Google称,在向公众发布前,Gemini Pro已经通过了一系列行业标准基准测试,在8个基准测试中的6个测试中,Gemini Pro的表现优于GPT-3.5;而Gemini Ultra在广泛使用的基准测试中优于GPT-4,这些基准测试包括阅读理解、代码生成和视觉理解等功能。

3个版本中,Gemini Pro版在发布会当天就已上线到Google的部分内部应用中,外部开发者要使用该模型需要等到下周,他们此刻可以访问的只有最小版本的Gemini Nano。而最先进的Gemini Ultra要在2024年年初才会正式发布和上线。

在Google内部,Gemini的应用计划是:

1. Bard(聊天机器人,对标ChatGPT):12月6日开始,Bard背后的模型就由5月发布的PaLM 2替换成了Gemini Pro。Google称,2024年年初,当对标GPT-4版本的Gemini Ultra发布时,Bard背后的模型将进一步升级为Gemini Ultra,推出Bard Advanced(对标ChatGPT Plus),届时这款聊天机器人就能解释图像和视频,就像视频里演示的那样。

Bard是Google今年3月发布的聊天机器人,对标OpenAI的ChatGPT,目前已经在170多个国家和地区提供服务。由于缺少先发优势,且背后模型的能力差异,Bard的用户量至今还远低于ChatGPT。通过接入Gemini Pro与不久后的Gemini Ultra,Brad至少在模型能力上追上了ChatGPT。目前,OpenAI对ChatGPT Plus用户每月收取20美元,未来,Google可能会对Bard Advanced采取类似政策。

2. Pixel(智能手机): Google计划将3款模型中size最小的Gemini Nano加载到智能手机中。加载了该模型的手机将具备的功能包括:

总结:Gemini Nano可以为手机中的对话录音、采访、演示等内容生成总结摘要,哪怕没有网络连接,这项功能也可以离线完成,该功能目前仅支持英文文本;

智能回复: Gemini Nano可以识别聊天过程中的朋友来信,并根据不同来信生成对应回复。该功能将首先登陆WhatsApp,并仅支持英文文本,明年推广至更多即时通讯应用;

照片和视频的AI编辑:比如清洁功能,只需要在照片上滑动几下,即可消除图片中的污渍、折痕等。

Pixel 8 Pro将是首款搭载Gemini Nano的智能手机。有数量庞大的移动设备使用了Google旗下的Android系统,未来Google可能让Gemini进入其他厂商生产的Android设备,这样它就可以将生成式AI引入遍布全球的数十亿台移动设备。

3. Google(搜索引擎):Gemini目前尚未在Google搜索引擎中上线,但公司已经在该领域测试Gemini。此前,Google已经使用其他模型上线和测试了将搜索和生成结合起来的「搜索生成服务」(Search Generative Experience,SGE)。

4. 未来几个月,Gemini将应用于更多Google产品和服务,包括广告、Chrome浏览器和工作助手Duet AI。

至于外部企业客户:

12月13日开始,开发者和企业客户可以通过Google AI Studio或Google Cloud Vertex AI中的API获取Gemini Pro,即对标GPT-3.5的那个中型版本。

此外,Android开发者还可以通过AICore使用最小的端侧模型Gemini Nano。AICore是Android 14中的一项新的系统功能,从Pixel 8 Pro开始在设备中支持。

Google也加入了AGI大赛,AI加速主义与AI对齐主义之间的矛盾可能再次引燃

在通往AGI的道路上,Google和OpenAI都在回到AlphaGo。

早在今年6月接受采访时,哈萨比斯就声称,Gemini会将生成式AI与AlphaGo中使用的技术结合,以赋予系统规划功能,这项功能使用树搜索的方法来探索和记住棋盘上可能的走法,被认为是推理能力的重要来源。

「在更高层面上,你可以将Gemini看作AlphaGo的一些优势与大模型的惊人语言能力的结合。」哈萨比斯说。AlphaGo正是他所创立的DeepMind开发出来的。

而OpenAI看上的是AlphaGo的另一项技术:自我训练,它曾令AlphaGo自己生成棋谱、然后自我对弈。2016年,AlphaGo在与李世石的博弈中下出了让所有懂围棋的人都感到困惑的「第37步棋」,最后在所有人都认为AI搞砸了的时候,AlphaGo出奇制胜了——这一出其不意被认为来自自我训练,而非向人类学习。

11月下旬的Sam Altman罢免风波中,一个叫Q*(发音为「Q-Star」)的模型被多家媒体爆料为此次风波的起因。该模型被视为OpenAI在GPT-4之后的一大技术突破,相较于传统模型从互联网上抓取文本或图像数据来训练模型,Q*可以自己生成数据来自我训练,AlphaGo曾经就是这么做的。

当时,Q*的突破被认为触发了OpenAI内部更关心AI安全而非效率那派人的担忧,Sam Altman本人被认为过于在意效率、在意公司在业内的领先优势而被罢免。这场风波虽然已以Sam Altman的回归告终,但效率派(有效加速主义)与安全派(AI对齐主义)的冲突只是被暂时压制了,并没有消失。

Google的加入可能令这一冲突在未来某个时刻再次上演。Gemini 1.0的发布只是Google在AI战争上的第一仗。在这个多模态之外,哈萨比斯所领导的Google DeepMind团队已经在研究如何将Gemini与机器人技术结合,与真实物理世界交互。「要构建真正的多模态,你还需要触摸和触觉反馈。」哈萨比斯说。

今年7月,Google DeepMind就展示过一个叫RT-2(Robotic Transformer 2)的机器人,它将电脑中训练的「视觉-语言模型」(visual-language model,VLM)与机器人在物理世界中的动作关联起来,形成「视觉-语言-动作模型」(visual-language-action,VLA),即RT-2。相较于过去为特定任务编写指令的机器人,RT-2能够与人通过自然语言交互并完成任务,哪怕是它未接受过训练的任务。

最强大、对标GPT-4的Gemini Ultra明年年初才会正式发布

12月6日的发布中,3款Gemini模型真正开始应用的只有中间版本的Gemini Pro和最小版本的Gemini Nano,最强大版本、对标GPT-4的Gemini Ultra并没有于当天发布。

Google称,这个最强版本明年年初才会出来。目前,Google正在对这款模型做信任与安全方面的检查,包括由可信赖的外部团队做「红队测试」(即安全对抗测试),并通过微调和基于人类反馈的强化学习(RLHF)进一步完善该模型。该过程中,部分客户、开发者和安全责任专家会被邀请参与早期试验和提供反馈。

Gemini的发布曾一再被推迟,最初其发布日期定在今年11月,但11月中旬早期版本的测试客户就收到邮件称正式版本将延迟发布。

就在本次Gemini 1.0系列模型发布前,Google首席执行官桑达尔·皮查伊(Sundar Pichai)还取消了原定在加利福尼亚州、纽约和华盛顿举行的一系列讲座活动,原因是Google发现Gemini无法可靠地处理一些非英语查询。

但外部压力可能使得Google无法再而三地延后发布Gemini,据报道,皮查伊和其他高管一直担心OpenAI的ChatGPT已成为家喻户晓的名字,而微软用于生产力工具的Copilot也正在变成一项重要业务。就在Gemini发布前一天,12月5日,微软宣布将GPT(包括GPT-4 Turbo)、DALL·E 3等模型的几乎所有功能都搬进Copilot,其知识库也更新至2023年4月,一次能处理的上下文长度达到128K。

于是,在对标GPT-4的Gemini Ultra没有就位的时候,Google就发布了Gemini。这是AI加速主义的又一次胜利。

参考链接

https://developers.googleblog.com/2023/12/how-its-made-gemini-multimodal-prompting.html

/d/file/gt/2023-12/p4ke51katwq

和每一位关心技术、关注人类命运的读者一样,我们希望在这个充满不确定性的时代,更好地理解快速变化的科技世界,也更好地理解生而为「高级智能」的我们自己。

在这个目标下,我们计划从学术、商业、伦理、监管等多个角度报道和讨论与「智能」相关的议题。请注意,我们说的智能,不只是 AI。

本文版权归第一财经所有,未经许可不得转载或翻译。

即可购买《第一财经》杂志2023年12月刊