OpenAI – 小众软件 https://inloveinparis.com 分享免费、小巧、实用、有趣、绿色的软件 Mon, 21 Apr 2025 06:56:12 +0000 zh-Hans hourly 1 https://wordpress.org/?v=6.8.1 终于有人整理了 OpenAI 混乱的模型名称 http://inloveinparis.com/openai-ai-models-name/ http://inloveinparis.com/openai-ai-models-name/#respond Mon, 21 Apr 2025 06:56:03 +0000 http://inloveinparis.com/openai-ai-models-name/ 来自 PandaFiredoge 同学整理的 OpenAI 不同模型的发布时间图,我也是第一次见识到这个。

终于有人整理了 OpenAI 混乱的模型名称 1

不过鉴于目前AI的时间速度比人类的快太多,也不知道这张图还能撑几天。

来源:https://meta.appinn.net/t/topic/70531


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论

[ 点击前往获取链接 ]


]]>
http://inloveinparis.com/openai-ai-models-name/feed/ 0
OpenAI 就这么选择了 Anthropic 的 MCP 开放标准,MCP 要一统未来了么? http://inloveinparis.com/openai-adopts-anthropic-mcp-standard/ http://inloveinparis.com/openai-adopts-anthropic-mcp-standard/#respond Thu, 27 Mar 2025 06:17:40 +0000 http://inloveinparis.com/openai-adopts-anthropic-mcp-standard/ 来自 TechCrunch 的消息,OpenAI 的 CEO 奥特曼在北京时间今天凌晨 2 点钟发推说:人们喜欢 MCP,我们很高兴在我们的产品中增加对 MCP 的支持。@Appinn

OpenAI 就这么选择了 Anthropic 的 MCP 开放标准,MCP 要一统未来了么? 2

AI 的世界就是快,从 Anthropic(Claude 所属公司)于2024年11月25日正式发布开源 MCP 协议至今,也才4个月的时间,当 OpenAI 选择 MCP 之后,MCP 作为事实标准,已经不会再有什么悬念了。

MCP 是什么?

MCP(模型上下文协议)是一个开放标准协议,用来让 AI 操作各类第三方服务。作为人类,你只需要与AI沟通,AI 则通过 MCP 与第三方服务互动。

这极大的减少了 AI 开发的复杂性,未来你只需要选择合适的 MCP 服务,就像搭积木一样,就能组合成一套完整的操作链条。

可以这样说,AI 降低了程序员的门槛,而 MCP 则降低了开发 AI 类程序的门槛。

OpenAI 选择了 MCP

OpenAI 就这么选择了 Anthropic 的 MCP 开放标准,MCP 要一统未来了么? 3

与其说 OpenAI 选择了 MCP,不如说是大势所趋。

从 MCP 的普及程度来看,也是一个快。MCP 服务插件数量迅速增加(比如 awesome-mcp-servers),各大客户端都纷纷开始支持,一旦掉队就来不及了。

OpenAI 就这么选择了 Anthropic 的 MCP 开放标准,MCP 要一统未来了么? 4

何不立即开始呢。

OpenAI 也迅速在 OpenAI Agents SDK 中提供了对 Model context protocol (MCP) 的支持。开发者可以放心胆大的干下去了。

作为我们这样的普通用户,就坐享其成吧,记得准备好订阅费用 😂


原文:http://inloveinparis.com/openai-adopts-anthropic-mcp-standard/

关注我们

爱发电:https://afdian.com/a/qingxwa (打赏我们,让我们更好的创作)


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论

[ 点击前往获取链接 ]


]]>
http://inloveinparis.com/openai-adopts-anthropic-mcp-standard/feed/ 0
SearchGPT – 即刻加入测试候补名单|OpenAI 发布人工智能搜索服务 http://inloveinparis.com/searchgpt-waitlist/ http://inloveinparis.com/searchgpt-waitlist/#respond Sat, 27 Jul 2024 01:26:00 +0000 http://inloveinparis.com/searchgpt-waitlist/ SearchGPT 是 OpenAI 准备发布的「新搜索功能的原型,利用人工智能模型的优势,通过清晰且相关的来源为你提供快速答案」,可以理解为一款可以从网络获取信息的 GPT 产品。目前正在申请加入候补名单之中。@Appinn

SearchGPT - 即刻加入测试候补名单|OpenAI 发布人工智能搜索服务

青小蛙理解的 SearchGPT,大概可以:

  • 用中文搜索英文内容/反之
  • 可以后续继续提问
  • 具有来源链接,不再黑箱

对于内容发布商,发布了 OAI-SearchBot 爬虫用于搜索,完整的用户代理字符串: 

Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko); compatible; OAI-SearchBot/1.0; +https://openai.com/searchbot)

加入候补名单

需要 ChatGPT 账号。


原文:http://inloveinparis.com/searchgpt-waitlist/


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论

[ 点击前往获取链接 ]


]]>
http://inloveinparis.com/searchgpt-waitlist/feed/ 0
GPT-4o mini 发布:OpenAI 最便宜的小型模型,比 GPT-3.5 便宜,比 GPT-4 优秀 http://inloveinparis.com/gpt-4o-mini/ http://inloveinparis.com/gpt-4o-mini/#respond Fri, 19 Jul 2024 04:02:47 +0000 http://inloveinparis.com/gpt-4o-mini/ OpenAI 昨天发布了最新的「最具成本效益的小型型号」GPT-4o mini,它在 MMLU 上得分 82%,目前优于 GPT-4,比 GPT-3.5 Turbo 便宜 60% 以上。@Appinn

GPT-4o mini 发布:OpenAI 最便宜的小型模型,比 GPT-3.5 便宜,比 GPT-4 优秀

以上两组数据来自 OpenAI 昨天的博客文章《GPT-4o mini: advancing cost-efficient intelligence》。

性能

其他一些数据还有:

  • GPT-4o mini 在 MMLU 上得分 82%,目前优于 GPT-4
  • 比 GPT-3.5 Turbo 便宜 60% 以上
  • 在 API 中支持文本和视觉(接受文本或图像输入并输出文本)
  • 128K 上下文,最多16K输出
  • 与 GPT-4o 共享改进标记器,处理非英语文本更经济
  • 截至 2023 年 10 月的知识

未来还将支持文本、图像、视频和音频输入和输出。

API 价格

开发者为每 100 万个输入代币支付 15 美分,为每 100 万个输出代币支付 60 美分(大约相当于一本标准书的 2500 页)。

喜闻乐见的对比环境

GPT-4o mini 在文本智能和多模态推理方面的学术基准上超越了 GPT-3.5 Turbo 和其他小型模型,并支持与 GPT-4o 相同范围的语言。它还在函数调用方面表现出强大的性能,使开发人员能够构建获取数据或与外部系统执行操作的应用程序,并且与 GPT-3.5 Turbo 相比,提高了长上下文性能。

推理任务:

GPT-4o mini 在涉及文本和视觉的推理任务上优于其他小型模型,在文本智能和推理基准 MMLU 上得分为 82.0%,而 Gemini Flash 为 77.9%,Claude Haiku 为 73.8%。

数学和编码能力:

GPT-4o mini 在数学推理和编码任务方面表现出色,优于市场上以前的小型模型。在 MGSM 上,测量数学推理,GPT-4o mini 得分为 87.0%,而 Gemini Flash 为 75.5%,Claude Haiku 为 71.7%。

GPT-4o mini 在衡量编码性能的 HumanEval 上得分为 87.2%,而 Gemini Flash 的得分为 71.5%,Claude Haiku 的得分为 75.9%。

多模态推理:

GPT-4o mini 在多模态推理评估 MMMU 上也表现出强劲的性能,得分为 59.4%,而 Gemini Flash 为 56.1%,Claude Haiku 为 50.2%。

GPT-4o mini 发布:OpenAI 最便宜的小型模型,比 GPT-3.5 便宜,比 GPT-4 优秀 5

目前已可以使用

目前已经可以在 API 中使用 gpt-4o-mini 模型名称, GPT-4o mini 比 GPT-3.5 Turbo 更便宜、功能更强大。


原文:http://inloveinparis.com/gpt-4o-mini/


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论

[ 点击前往获取链接 ]


]]>
http://inloveinparis.com/gpt-4o-mini/feed/ 0
OpenAI 发布新旗舰模型 GPT-4o,实时处理音频、视觉和文本 http://inloveinparis.com/hello-gpt-4o-openai/ http://inloveinparis.com/hello-gpt-4o-openai/#respond Tue, 14 May 2024 03:07:41 +0000 http://inloveinparis.com/hello-gpt-4o-openai/ OpenAI 在昨天发布了新旗舰模型 GPT-4o(“o” for “omni”),它可以同时处理文本、音频、视频,让你与 AI 的交流变得和人一样,你可以和它面对面视频,它会在很短的时间内做出响应。那个电影里的贾维斯,大概就这来了。@Appinn

OpenAI 发布新旗舰模型 GPT-4o,实时处理音频、视觉和文本

主要特点

GPT-4o 能接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像的任意组合作为输出。

它可以在短至 232 毫秒、平均 320 毫秒的时间内对音频输入做出响应,这类似于对话中的人类响应时间。

在 GPT-4o 之前,您可以使用语音模式与 ChatGPT 对话,平均延迟为 2.8 秒 (GPT-3.5) 和 5.4 秒 (GPT-4)

以前为了实现这一目标,语音模式是由三个独立模型组成的管道:一个简单模型将音频转录为文本,GPT-3.5 或 GPT-4 接收文本并输出文本,第三个简单模型将该文本转换回音频。

而 GPT-4o 跨文本、视觉和音频端到端地训练了一个新模型,这意味着所有输入和输出都由同一神经网络处理。

它在英语和代码文本上的性能与 GPT-4 Turbo 相当,在非英语语言文本上的性能也有显著提高,同时在应用程序接口(API)上的速度更快,价格便宜 50%。

与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色。

演示视频

中文字幕:

如何使用

GPT-4o 的文本和图像(无视频)功能今天开始在 ChatGPT 中推出。Plus 付费用户比免费版多 5 倍的消息限制,免费版本可用 GPT-4o

未来几周将在 ChatGPT Plus 中推出新版语音模式 GPT-4o 的 alpha 版。

开发人员(API 用户)现在可以在 API 中访问 GPT-4o 作为文本和视觉模型。与 GPT-4 Turbo 相比,GPT-4o 速度提高 2 倍,价格降低一半,速率限制提高 5 倍。

未来几周内在 API 中向一小群值得信赖的合作伙伴推出对 GPT-4o 新音频和视频功能的支持。


原文:http://inloveinparis.com/hello-gpt-4o-openai/

另外,目前青小蛙还未看到 GPT-4o 权限 🙈

更新个实时翻译的演示:


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论

[ 点击前往获取链接 ]


]]>
http://inloveinparis.com/hello-gpt-4o-openai/feed/ 0
OpenAI Sora – 文字转视频模型:输入描述性文字,获得,生成长达一分钟的视频 http://inloveinparis.com/openai-sora-introducing/ http://inloveinparis.com/openai-sora-introducing/#respond Fri, 16 Feb 2024 07:34:58 +0000 http://inloveinparis.com/openai-sora-introducing/ OpenAI 今日在 X 发布了最新的文字转视频模型 Sora,只需要简单的描述性文字,就可以生成长达 60 秒的视频,其中包含高度详细的场景、正在运动的镜头,以及充满活力的多个角色。@Appinn

OpenAI Sora - 文字转视频模型:输入描述性文字,获得,生成长达一分钟的视频

从生成文字、图片、声音,到生成视频,这是一条必然的路,虽然之前也有一些模型可以实现文字转视频,但 OpenAI Sora 生成的视频,可以直接拿来就用。

比如,你是一位美食视频创作者,想要拍摄翻山越岭去寻找食材的镜头,真的可以不用去现场了 😂

先坐火车去目的地:

提示词:穿过东京郊区的火车车窗上的倒影。

再开越野车进山:

只需要使用以下提示词(Prompt):

镜头跟在一辆带黑色车顶行李架的白色复古越野车后面,越野车在陡峭的山坡上沿着松树环绕的陡峭土路上飞驰,轮胎上的尘土飞扬,阳光照在越野车上,越野车在土路上飞驰,给整个场景投下了温暖的光辉。
土路缓缓弯向远方,看不到其他车辆。道路两旁的树木都是红杉,还有零星的绿色植物。

从后方看,汽车轻松地沿着弯道行驶,仿佛在崎岖的地形上行驶。土路本身被陡峭的丘陵和山脉环绕,头顶是晴朗的蓝天和飘渺的白云。

对于像青小蛙这样的业余视频制作者来说,可以实现很多想象中的转场镜头了,不需要复杂的剪辑技术 😂

而对于 OpenAI 的一系列模型,青小蛙总有一种感觉:OpenAI 可能会淘汰掉一批普通的创作者,留下来善于利用 AI,结合自身想象力的创造者,带来一波升级。

Sora 的缺陷

OpenAI 自己也描述了现在的缺陷:

它可能难以准确模拟复杂场景的物理原理。例如,一个人可能咬了一口饼干,但之后饼干可能没有咬痕。该模型还可能会混淆左右,例如一个人在跑步机上跑步,但是跑向反方向。

Sora 的安全

对于想用 Sora 生成敏感小视频的同学大可放心,它会自动检查很多敏感内容,例如要求极端暴力、性内容、仇恨图像、名人肖像等。

提示词:相机正对意大利布拉诺色彩缤纷的建筑。一只可爱的斑点狗透过一楼建筑的窗户向外张望。许多人沿着建筑物前的运河街道步行和骑自行车。

获取

需要注意的是,目前公众还无法使用 Sora,只有部分人可以使用(安全评估人员、少数视觉艺术家、设计师和电影制片人访问)需要等待技术下放。

从 ChatGPT 诞生至今,也不过短短 14 个月,我们不止在见证历史,还在经历历史。

原文:http://inloveinparis.com/openai-sora-introducing/


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论

[ 点击前往获取链接 ]


]]>
http://inloveinparis.com/openai-sora-introducing/feed/ 0
GPT-4 面向所有 OpenAI API 付费用户开放使用 http://inloveinparis.com/gpt-4-api-general-availability/ http://inloveinparis.com/gpt-4-api-general-availability/#respond Fri, 07 Jul 2023 03:47:04 +0000 http://inloveinparis.com/gpt-4-api-general-availability/ OpenAI 在最近的一篇博客中宣布:GPT-4 面向所有 OpenAI API 付费用户开放使用。@Appinn

GPT-4 面向所有 OpenAI API 付费用户开放使用 6

今天早上,青小蛙也说到了 GPT-4 的开通邮件:

GPT-4 面向所有 OpenAI API 付费用户开放使用 7

邮件里的说法大概是:作为 GPT-4 的全面可用性的一部分,目前已经可以访问具有 8k 上下文大小的 GPT-4 模型。

而从博客里的描述来看:「从今天开始,所有付费 API 客户都可以访问 GPT-4。」这需要你曾经为 OpenAI API 支付过账单,仅绑卡是不行的。

虽然目前是这样,但月底前应该就好了:

「如今,所有具有成功支付历史的现有 API 开发人员都可以访问具有 8K 上下文的 GPT-4 API。我们计划在本月底之前向新开发人员开放访问权限,然后根据计算可用性开始提高速率限制。」

GPT-4 价格依旧是障碍

由于算力问题,以及全球独一份定价,目前的 GPT-4 价格依旧是使用障碍,针对 API 用户,在拥有了上下文之后,一条消息轻松 5 毛钱人民币,这对于使用来说,太昂贵了。以至于 20 刀/月的 ChatGPT Plus 在移动端不限量 gpt-4 mobile v2 的夹持下,已经很有性价比了 😂


原文:http://inloveinparis.com/gpt-4-api-general-availability/


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论

[ 点击前往获取链接 ]


]]>
http://inloveinparis.com/gpt-4-api-general-availability/feed/ 0
OpenAI 发布新版 GPT-4、GPT-3.5,部分降价 25%,以及支持长达 20 页上下文的 GPT-3.5-16K ,旧版本今年 9 月份将被弃用 http://inloveinparis.com/openai-api-updates/ http://inloveinparis.com/openai-api-updates/#respond Wed, 14 Jun 2023 01:32:14 +0000 http://inloveinparis.com/openai-api-updates/ OpenAI 刚刚在 blog 发布了新文章:Function calling and other API updates,宣布了更新和改进的模型:gpt-4-0613 和 gpt-3.5-turbo-0613,以及 GPT-3.5-16K 版本,16k 上下文意味着该模型现在可以在单个请求中支持约 20 页文本,比起 GPT-4-32K 版本还有差距。另外老版本(gpt-3.5-turbo-0301 和 gpt-4-0314)将于 2023年9月13日停止服务。最后,“未来几周会放出更多 GPT-4 邀请”。@Appinn

OpenAI 发布新版 GPT-4、GPT-3.5,部分降价 25%,以及支持长达 20 页上下文的 GPT-3.5-16K ,旧版本今年 9 月份将被弃用 8

旧模型弃用时间表

对于使用 ChatGPT 的用户,并无法直接感受具体的模型版本,而对于调用 API 的用户,此前使用最多的是以下几个:

  • gpt-3.5-turbo-0301
  • gpt-4-0314
  • gpt-4-32k-0314

这三款模型将于2023年9月13日停止服务,各位开发者需要更改代码了,自托管用户们则需要去更新程序了。

新模型

今天发布的新模型包括(机器翻译):

  • gpt-4-0613 包括一个更新和改进的模型,带有函数调用。
  • gpt-4-32k-0613 包括与 gpt-4-0613 相同的改进,以及扩展的上下文长度,以便更好地理解更大的文本。
  • gpt-3.5-turbo-0613 包括与 GPT-4 相同的函数调用以及通过系统消息提供的更可靠的可操纵性,这两个功能允许开发人员更有效地指导模型的响应。
  • gpt-3.5-turbo-16k 以两倍的价格提供 gpt-3.5-turbo 的上下文长度的 4 倍:每 1K 输入令牌 0.003 美元,每 1K 输出令牌 0.004 美元。 16k 上下文意味着该模型现在可以在单个请求中支持约 20 页文本。

前三者是例行更新,gpt-3.5-turbo-16k 则是一个新模型,可以让用户提交更多的上下文,比如之前需要分 4 段提交的内容,现在就能一次性提交了,可以让机器更好的理解你的意思。

GPT-3.5 降价 25%

之前的 GPT-3.5 价格为 $0.002 / 1K tokens,不区分输入输出,新版本输入降价,输出价格不变。

GPT-3.5 模型输入输出
4K context(默认)$0.0015 / 1K tokens$0.002 / 1K tokens
16K context$0.003 / 1K tokens$0.004 / 1K tokens
4K 估算为:每美元大约 700 页内容。

gpt-3.5-turbo-16kgpt-3.5-turbo 贵两倍,但提供了 4 倍的上下文长度。

GPT-4 价格

GPT-4 除了自身水平和上下文长度,价格也依旧高高在上,是 GPT-3.5 的 20 倍和 30 倍,很贵、很贵。所以目前使用 GPT-4 的最佳途径依旧是 ChatGPT Plus 会员。

GPT-4 模型InputOutput
8K context$0.03 / 1K tokens$0.06 / 1K tokens
32K context$0.06 / 1K tokens$0.12 / 1K tokens

另外关于函数调用的细节请参阅 OpenAI Blog。


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论

[ 点击前往获取链接 ]


]]>
http://inloveinparis.com/openai-api-updates/feed/ 0
简易的 Whisper 客户端,使用 OpenAI API 进行语音转文字 http://inloveinparis.com/transcribe-audio-open-ai-whisper-api-web-ui/ http://inloveinparis.com/transcribe-audio-open-ai-whisper-api-web-ui/#respond Mon, 22 May 2023 07:57:11 +0000 http://inloveinparis.com/transcribe-audio-open-ai-whisper-api-web-ui/ Whisper 是一个由 OpenAI 训练并开源的神经网络,在英语语音识别方面的稳健性和准确性接近人类水平。当然也支持包括中文在内的多种语言。除了使用本地电脑的 CPU 与 GPU 进行语音转文字以外,实际上还可以直接使用用由 OpenAI 提供的服务进行语音转文字。青小蛙找到的这个开源项目,就简单的提供了这项服务。@Appinn

简易的 Whisper 客户端,使用 OpenAI API 进行语音转文字

#语音转文字 的产品不少了,但本地(使用自己的电脑)的居多:

利用 iPhone 本地算力:

Windows,支持 GPU:

利用 Windows 原生功能:

跨平台,基于 Whisper:

等等,但本地的一个劣势是需要电脑性能好一些,并且还需要下载巨大的模型文件。如果偶尔用一次,真不如不折腾 😂

felixbade/transcribe 项目

这个项目名叫 transcribe,实际上它只有三个文件:index.html、index.js、style.css,只需要下载、解压缩,将 index.html 拖到浏览器里就能用:

简易的 Whisper 客户端,使用 OpenAI API 进行语音转文字 9

然后,在顶部输入你的 OpenAI API key(和 ChatGPT 同一个),就可以选择音频文件进行转换了,支持文本、.srt、.vtt 三种格式。

它会直接将文本输出在页面上,而不是提供文件下载:

简易的 Whisper 客户端,使用 OpenAI API 进行语音转文字 10

所以,转换成功之后,只需要将内容复制,放到文本编辑器中,保存为 .srt 就行了。

简单易用,三个文件加起来也只有 13KB…

另外,开发者也提供了一个 DEMO 页面,可以直接使用。

获取

API 价格

另外需要注意,Whisper API 的价格为 $0.006 / 分钟。

作为对比,讯飞听见价格为 ¥128/5小时(快算下按分钟多少钱 😂),不过根据朋友反馈,讯飞的中文效果要好于 Whisper


原文:http://inloveinparis.com/transcribe-audio-open-ai-whisper-api-web-ui/


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论

[ 点击前往获取链接 ]


]]>
http://inloveinparis.com/transcribe-audio-open-ai-whisper-api-web-ui/feed/ 0
Waige – 在 Mac 菜单栏显示 OpenAI API 消耗量与余额[开发者必备] http://inloveinparis.com/waige/ http://inloveinparis.com/waige/#respond Tue, 28 Mar 2023 08:24:32 +0000 http://inloveinparis.com/waige/ Waige 是一个专门为 OpenAI 开发者准备的小工具,它能够在 Mac 菜单栏上显示多个账号的 API 消耗量与账户余额。@Appinn

Waige - 在 Mac 菜单栏显示 OpenAI API 消耗量与余额[开发者必备]

Waige

Waige 使用消费者定价方式,你可以出任意价格(包括0),然后获得下载链接。

运行之后,只需要填入你的 OpenAI API Key 就行了,它会自动获取。

并且,它可以读取 Hard limit 数值,并显示出来。比如上图里的 $10 就是青小蛙设置的限额,一旦 API 用量达到这个数值,就拒绝访问。

这样可以保护你的钱包 😂

Waige - 在 Mac 菜单栏显示 OpenAI API 消耗量与余额[开发者必备] 11

很适合独立开发者,小心你的账单。

获取

需要 macOS 13.0+ (Ventura)

原文:http://inloveinparis.com/waige/


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论

[ 点击前往获取链接 ]


]]>
http://inloveinparis.com/waige/feed/ 0