ai大模型无疑是当下最火的热门技术,因为ai的出现,编程开始变得愈发智能化傻瓜化,程序员有着向提示词工程师方向变化的可能。去年在工作中,我也将ai编程加入了进来,与之前传统的编程方式不同,ai可以快速地高效的生成代码,但这也不意味着可以在当下完全替代程序员的工作,目前系统化的工程,ai还是不能完全替代人类的开发,但程序员可以将复杂问题分解为多个简单问题,让ai迅速帮你实现,举个例子一个工程中有一些疑难杂点,我们可以让ai帮忙去实现,通过不断地提示词迭代,生成这一部分的关键代码为我们所用。

去年年初的时候我开始使用cursor这款ai软件帮我写一些简单前端组件,到了年末我又在vscode中接入了copilot,copilot彻底改变了我的编程思路,他的智能化完全出乎我的意料,可以通过代码的上下文以及函数的命名,准确的联想出我想写的代码,而且更加简洁高效,无疑提升了我的工作效率。

最近一款国产大模型deepseek又进入了我的视野,因为是国产,而且训练成本非常之低,据说可以比肩chatgpt4,试用以后果然不错,最重要的是他没有次数限制,也不用害怕没有vpn。百万条token使用也仅仅只花费10元钱,这无疑为当下ai创业者提供了一个新的赛道。

ai在迅速发展的过程中是有许许多多的信息差,如果能抓住风口,自己通过deepseek做一些小而美的ai应用,估计是可以好好赚一笔外汇。

为了紧跟时代我也得当初学者,从代码的角度研究下这个东西,话不多说,先去python官网下载当前版本最新的安装包,在安装过程中记得将python加入到环境变量中(add to path),并且勾选python的包管理工具pip。

安装完成以后在cmd中看一看python和pip是否安装成功。

接下来我们就选取一个大模型代码试一试,由于墙的原因我们使用阿里提供的大模型

ModelScope 

pip install modelscope 安装

安装成功后我们建立一个test.py 文件

from modelscope import AutoModelForCausalLM, AutoTokenizer

# 加载中文 GPT 模型
model_name = "damo/nlp_gpt3_text-generation_chinese-large"  # 中文 GPT 模型
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# 输入文本
input_text = "人工智能是"

# 将输入文本编码为模型输入
input_ids = tokenizer.encode(input_text, return_tensors="pt")

# 生成文本
output = model.generate(
    input_ids,
    max_length=50,
    num_return_sequences=1,
    no_repeat_ngram_size=2,
    do_sample=True,
    top_k=50,
    top_p=0.95,
    temperature=0.7
)

# 解码生成的文本
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)

# 输出结果
print("生成的文本:")
print(generated_text)

之后 python test.py 就可以跑一下模型 查看答案了。

目前普通人的用法当然是借助各个ai公司提供的免费大模型,然后专注于自己所在的领域,通过调包,做出适用于自己所在行业的智能ai,比如我作为一名dota2 爱好者就可以根据dota2实时数据,通过这些开源大模型,建立一个属于自己的dota2实时胜负概率训练库,来帮助判断这场比赛双方获胜的概率。

另外从算法的角度,理解当下各个模型的算法,如果能做到优化算法像deepseek这样,那就真正成为ai届的大佬。当然目前对于普通人太难。以后的文章会讲解一些简单的大模型算法,由浅入深,自己也借此,学习一些ai领域相关的算法,算是活到老学到老了。

Logo

汇聚全球AI编程工具,助力开发者即刻编程。

更多推荐