“百花齐放,百家争鸣”
人工智能再掀热潮,近期国产AI大模型竞相发布。继百度、三六零、商汤等科技巨头发布各自大模型后,阿里巴巴“通义千问”大模型4月11日也亮相云峰会。据介绍,阿里达摩院2019年便已启动中文大模型研发。不得不说,这些大厂都是站得高看的远的,稍不留神就会被落下。
阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇表示,未来阿里巴巴所有产品都将接入“通义千问”大模型,进行全面改造。据悉,钉钉、天猫精灵将率先接入通义千问测试,评估认证后正式发布新功能。
先给个官网测试地址吧:tongyi.aliyun.com/
我是当天就申请了,没过几天,好消息就来了
我们今天来说下讲下通义千文的AI感受
我是通义千问 ,一个专门响应人类指令的大模型
首先进来的落地页面和百度的文心一言、ChatGPT等布局不一样,它多了一些聚焦话题模块,让用户可以直接进入该模块得到自己想要的答案。这是其一,我们再往下看有个百宝袋:
这里面是亮点,好不好用先不说,反正挺扎眼的,我们进去彩虹屁专家看是怎么样的一个“专家”
只能呵呵了,感觉很生硬!!!
输入“鱼香肉丝”,回答
鱼香肉丝菜品
所需食材:
-瘦猪肉丝 250克
-青椒 50克
-红椒 50克
-葱 30克
-姜 10克
-大蒜 10克
-盐 适量
-酱油 适量
-料酒 适量
-生抽 适量
-白糖 适量
-香醋 适量
-生姜 适量
-大蒜 适量
-淀粉 适量
-香油 适量
具体步骤:
- 猪肉洗净切细丝,加入盐、酱油、淀粉搅拌均匀腌制15分钟。
- 青红椒去蒂去籽切细丝,葱姜蒜切末备用。
- 热锅冷油加入葱姜蒜爆香。
- 加入腌制好的肉丝煸炒至变色,加入青红椒丝翻炒。
- 加入生抽、白糖、香醋、盐、料酒、适量清水翻炒均匀。
- 最后滴入香油,撒上葱花即可。
完整做法:
- 猪肉洗净切细丝,加入盐、酱油、淀粉搅拌均匀腌制15分钟。
- 青红椒去蒂去籽切细丝,葱姜蒜切末备用。
- 热锅冷油加入葱姜蒜爆香。
- 加入腌制好的肉丝煸炒至变色,加入青红椒丝翻炒。
- 加入生抽、白糖、香醋、盐、料酒、适量清水翻炒均匀。
- 最后滴入香油,撒上葱花即可。
SWOT分析
百宝袋中SWOT分析值得去问问,去跟他聊聊
优势:
- GPT 可以为个人或企业生成各种文本内容,包括文章、广告、电子邮件、网页等。这种自动化工具可以加速文本生成,减少创作时间,同时可以减少错误率。
- GPT 可以在语言和文化领域生成高质量的文本,使得文本的语言、文化和主题更加准确。
- GPT 可以根据个人或企业的需求生成文本,提供个性化的服务,使得客户更容易接受产品或服务。
劣势:
- 在使用 GPT 生成文本时,需要输入相应的信息,否则 GPT 无法生成正确的文本。
- 需要将所有的信息输入到 GPT 中,否则 GPT 将无法为用户生成所需的文本。
- 如果生成的文本与其他人的文本存在很大的相似性,可能会被视为侵权。
机会:
- 随着人工智能技术的不断发展,GPT 将成为一个普及化的工具,使得更多的人可以使用它来生成文本。
- 对于企业来说,使用 GPT 可以提高生产效率和生产力,从而增加收益。
- 由于 GPT 的生成文本准确度高,因此可以提高客户的满意度,从而促进销售。
威胁:
- 由于 GPT 可以快速生成文本,因此可能会对人类的工作造成威胁。
- 使用 GPT 可能会导致人们的创造力和创作能力下降,因为人们可能会将生成文本作为一个机械的过程。
- 如果 GPT 的生成文本可能会被认为是侵权的,那么使用 GPT 可能会导致法律纠纷
我们用官方的示例,“在疫情后时代中,传统制造业的机会在哪里”
我们再来看下编码能力
这里就不粘贴图片了,我们用对话的形式将编码能力写下来,我们感受下:
Q: scala spark中如何计算同环比
A: 同环比是指在时间范围内,同一组的数值比较,以及环比是指相对于前一个时间的变化。 在 Scala Spark 中,可以通过 `filter()` 函数和 `map()` 函数来实现同环比的计算。 假设有一个数据集是按天分区的,其中有一列是日期。现在想要计算相邻两天的同环比,可以按照以下步骤:
1. 创建一个时间窗口,按照日期分区。
2. 将数据集分成若干个子集,每个子集包含相邻的两天。
3. 对每个子集执行上述计算,得到每组的同环比。
示例代码如下:
import org.apache.spark.sql.functions._
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql._
val dateColumn = Seq("date").toDF("date")
val timeWindow = dateColumn.withColumn("end_date", "date").over(
Window.partitionBy("date").orderBy("date")
)
val df = spark.createDataFrame(Seq(("2019-01-01"), ("2019-01-02"), ("2019-01-03"), ("2019-01-04"), ("2019-01-05"), ("2019-01-06"), ("2019-01-07"), ("2019-01-08"), ("2019-01-09"), ("2019-01-10"), ("2019-01-11"), ("2019-01-12"), ("2019-01-13"), ("2019-01-14"), ("2019-01-15"), ("2019-01-16"), ("2019-01-17"), ("2019-01-18"), ("2019-01-19"), ("2019-01-20"), ("2019-01-21"), ("2019-01-22"), ("2019-01-23"), ("2019-01-24"), ("2019-01-25"), ("2019-01-26"), ("2019-01-27"), ("2019-01-28"), ("2019-01-29"), ("2019-01-30"), ("2019-01-31")), Seq("id", "date"))
val resultDF = df.groupBy(dateColumn, "id").agg(first("date"), avg("value").as("value"))
resultDF.show()
输出结果:
+---+----------------+---------+
| id| date | value|
+---+----------------+---------+
| 2019-01-01| 2019-01-01 | 5|
| 2019-01-02| 2019-01-02 | 5|
| 2019-01-03| 2019-01-03 | 2|
| 2019-01-04| 2019-01-04 | 3|
| 2019-01-05| 2019-01-05 | 3|
| 2019-01-06| 2019-01-06 | 1|
| 2019-01-07| 2019-01-07 | 2|
| 2019-01-08| 2019-01-08 | 1|
| 2019-01-09| 2019-01-09 | 1|
| 2019-01-10| 2019-01-10 | 0|
| 2019-01-11| 2019-01-11 | 0|
| 2019-01-12| 2019-01-12 | 1|
| 2019-01-13| 2019-01-13 | 1|
| 2019-01-14| 2019-01-14 | 0|
| 2019-01-15| 2019-01-15 | 0|
| 2019-01-16| 2019-01-16 | 1|
| 2019-01-17| 2019-01-17 | 0|
| 2019-01-18| 2019-01-18 | 0|
| 2019-01-19| 2019-01-19 | 1|
| 2019-01-20| 2019-01-20 | 1|
| 2019-01-21| 2019-01-21 | 0|
| 2019-01-22| 2019-01-22 | 0|
| 2019-01-23| 2019-01-23 | 1|
| 2019-01-24| 2019-01-24 | 0|
| 2019-01-25| 2019-01-25 | 0|
| 2019-01-26| 2019-01-26 | 1|
| 2019-01-27| 2019-01-27 | 0|
| 2019-01-28| 2019-01-28 | 0|
| 2019-01-29| 2019-01-29 | 0|
| 2019-01-30| 2019-01-30 | 0|
| 2019-01-31| 2019-01-31 | 0|
+---+----------------+---------+
发现他并没有计算同环比,接着问:
Q: 并没有计算同环比啊
A: 感谢您指出这个问题。在原来的代码中,我们只计算了相邻两天的差值,没有考虑相邻两天的环比增长。在计算同环比时,需要将每组数据的相邻两天也考虑进去,所以需要加入一个时间窗口来保存每组数据的相邻两天。 修改后的代码如下:
import org.apache.spark.sql.functions._
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql.types._
val dateColumn = Seq("date").toDF("date")
val timeWindow = dateColumn.withColumn("end_date", "date").over(
Window.partitionBy("date").orderBy("date")
)
val df = spark.createDataFrame(Seq(("2019-01-01"), ("2019-01-02"), ("2019-01-03"), ("2019-01-04"), ("2019-01-05"), ("2019-01-06"), ("2019-01-07"), ("2019-01-08"), ("2019-01-09"), ("2019-01-10"), ("2019-01-11"), ("2019-01-12"), ("2019-01-13"), ("2019-01-14"), ("2019-01-15"), ("2019-01-16"), ("2019-01-17"), ("2019-01-18"), ("2019-01-19"), ("2019-01-20"), ("2019-01-21"), ("2019-01-22"), ("2019-01-23"), ("2019-01-24"), ("2019-01-25"), ("2019-01-26"), ("2019-01-27"), ("2019-01-28"), ("2019-01-29"), ("2019-01-30"), ("2019-01-31")), Seq("id", "date"))
val resultDF = df.groupBy(dateColumn, "id").agg(first("date"), avg("value").as("value"))
val idxWindow = Seq("date", "end_date").toDF("idx", "end_date")
val resultDF2 = resultDF.join(idxWindow, "left_id", "right_id", "date")
resultDF2.show()
在这个代码中,我们在 timeWindow
中新增了一列 idx
表示相邻两天的索引,并将 date
列和 end_date
列进行了索引。然后,我们使用这两个索引进行了 join
操作,以计算同环比。 需要注意的是,由于我们使用的是 date
列作为分区键,所以 end_date
列是按照日期排序的。因此,我们需要在计算同环比之前,先按日期排序每个子集,以保证同环比的值是连续的。
再问下java
Q:java 实现二分法排序
以下是 Java 实现二分查找排序的示例代码:
public static void bubbleSort(int[] nums) {
int n = nums.length;
for (int i = 0; i < n - 1; i++) {
for (int j = 0; j < n - i - 1; j++) {
if (nums[j] > nums[j + 1]) {
int temp = nums[j];
nums[j] = nums[j + 1];
nums[j + 1] = temp;
}
}
}
}
这个实现使用了双重循环,以比较相邻的两个元素,并将较小的元素向后移动一个位置。在每一轮比较中,最大的元素将被保留下来,而最小的元素将被替换为它的下一个元素。因此,最终的有序数组将按升序排列。 同样地,如果需要使用二分查找排序一个数组,可以使用类似的方法来实现。需要注意的是,由于这种排序算法的时间复杂度是 O(n^2),因此在处理大型数据集时,可能需要使用其他算法来优化性能。
总结:
总体来说还行,不是那么的让人失望,补充一句,不支持图片,是的
我们今天分享到这里,你也可以搜索微信公众号“1点东西”,会有很多AI资料,感谢点赞,关注。
最近一直在写AIGPT类的东西,都收录在下方AI专栏里,以后也会持续输出。