本文目录一览:
openai是哪个公司的
人工智能研究公司。
OpenAI,在美国成立的人工智能研究公司。公司核心宗旨在于“实现安全的通用人工智能(AGI)”,使其有益于人类。2015年,OpenAI由马斯克、美国创业孵化器Y Combinator总裁阿尔特曼、全球在线支付平台PayPal联合创始人彼得·蒂尔等硅谷科技大亨创立。
OpenAI是全球最著名的人工智能研究机构,发布了许多著名的人工智能技术和成果,如大语言模型GPT系列、文本生成图片预训练模型DALL·E系列、语音识别模型Whisper系列等。由于这些模型在各自领域都有相当惊艳的表现,引起了全世界广泛的关注。
该公司技术发展成果
2016年4月27日,OpenAI发布了他们的第一个项目—OpenAI Gym Beta,这是一个用来开发和比较不同强化学习算法的工具。这个工具起初是OpenAI研究人员用来加速他们强化学习研究的,这个工具也是OpenAI第一个开放的成果。
2017年5月24日,OpenAI开源了一个重现强化学习算法的工具—OpenAI Baselines。强化学习由于过程十分复杂且影响因素众多,导致很多实验难以复现。因此,OpenAI开源了这个工具,目标是提供用于正确的强化学习算法实现的一些最佳实践。
算法相对论|关于人工智能的产业化之路的三点思考
彭嘉昊
在过去的2021年,我们见证了人工智能这个细分行业的起起伏伏,有些企业长期亏损乃至濒临破产,有些企业顺利获得融资或成功上市,可谓几家欢喜几家愁。但纵观现在国内人工智能的产业化之路,总是无法回避一个现实的问题,即“人工智能企业究竟离盈利还有多远?”诚然人工智能领域的研发工作需要巨大的投入,但所有的研发投入只有在产业化的落地场景中才能实现真正的商业价值,脱离了现实的产业需求,人工智能只能停留在技术本身。
目前,人工智能的产业化发展的3个路径:(1)AI+产业,即人工智能的技术型公司掌握某种人工智能技术后,向产业化的具体场景落地。比如商汤 科技 、云天励飞、旷世 科技 等知名人工智能公司都是采取的这条路径。(2)产业+AI,即由某一细分产业里的公司,尤其是头部大型企业作为主导力量,主动引入人工智能技术完成升级。比如平安保险、、顺丰快递等细分领域的大型企业自身的产业升级。(3)产学研成果转化,即由高校和科研机构为主导,主动面向市场的科研成果转化道路。近些年各大顶尖高校都建立了人工智能研究院,诸如北京、上海、深圳等城市也有很多政府背景的人工智能科研和成果转化平台。
笔者从2020年以来持续走访了上百家人工智能企业及科研机构,就在行业里的所见所闻,结合自己的想法,谈一下我对于人工智能的产业化之路的思考。
一、“AI+产业”的道路已经进入平台期
“AI+产业”的模式,主要指人工智能的技术型公司通过技术先行,然后寻找合适的业务场景实现商业价值。这条路可以借鉴移动互联网的发展历程,诸如淘宝、滴滴这样的互联网企业,都是通过技术和商业模式创新,发现了一个0-1的全新产业。我们曾经也认为人工智能的技术型公司可以通过0-1的技术突破,借鉴移动互联网的经验,广泛覆盖到各行各业的细分场景中。但除了人脸识别等少数几个场景外,人工智能的技术型公司并没有复制 科技 前辈在移动互联网的成功。
其中的原因有很多,我们并不能将其简单归咎于市场、资本或团队本身,笔者认为根源在于人工智能技术本身进入了一个进步相对缓慢的平台期了,我们拿人工智能的三大核心要素:算力、算法和数据来对应分析。
我们先说算力的问题,根据中国信息通信研究院在2021年《中国算力发展指数白皮书》的分析,虽然近些年基础算力、智能算力和超算算力都有很大程度的增长,未来5年全球的增速甚至超过50%,但与日益复杂的算法模型和快速增长的现实需求而言,仍然存在较大的缺口。同时,存算一体架构、量子计算、光子计算和类脑计算芯片尚处于实验室的研发阶段,离大规模商业化还有较长的时间,无法以技术革命的方式实现跨越式发展。虽然,诸如商汤 科技 、华为等头部公司采取了建立人工智能计算中心(AIDC)的方式,来满足未来智能计算需求的快速增长;我国神威、天河、曙光三台E级超算系统的研制工作也在逐步推进,很多国内的硬件公司着手计算机硬件的国产化替代。但从短期来看,算力将会是一个制约人工智能技术发展的现实困难。
我们再说到算法,算法表面上是计算机技术,但就本质抽离分析它是个数学问题。近些年数学领域还是有很多发展,比如无限函数计算等,但在计算机领域的发展速度相对而言没有那么的快。就算法这一特定领域的发展,中美最顶级的算法之间目前并没有代差。虽然层算法需要投入海量的资金进行研发,但是就应用层来说,企业完全可以自己下载Gitub或OpenAI的开源代码,或者使用百度、阿里、腾讯等互联网大厂的现有技术方案,从而大大降低技术应用的门槛。在市场竞争的层面上,人工智能技术型公司并不必然比传统互联网公司,甚至处于数字化转型的传统企业更具有优势。
另外一个关键要素就是数据,我国从2020年开始就逐步收紧了数据安全相关的管理,《个人信息保护法》、《数据安全法》以及九部委《关于加强互联网信息服务算法综合治理的指导意见》的陆续出台,使得人工智能的技术型公司获得数据的难度越来越,除非他们能够深入到业务的细分场景中,否则很难像过去那样获得训练算法模型的大规模数据。而这些“喂养”算法模型的数据,大都掌握在产业里的公司,尤其是大型公司的手中。这些大型公司无论是处于商业目的,还是自身业务安全性的考虑,几乎很难同人工智能的技术型公司开展合作,这也造成人工智能的技术型公司在产业化的道路上困难重重。
二、“产业+AI”和产学研成果转化的机遇
“产业+AI”的路径,属于产业里的企业自发性升级换代的过程,我们可以将其归纳进企业数字化转型的进程。产业里的企业为了适应市场竞争,会主动寻求与人工智能领域的技术型公司或者研究机构进行合作,甚至自己建立团队完成研发工作。对于大部分产业里的企业来说,他们面对的并不是0-1的全新市场,往往是在既有的红海市场中竞争,这种长期在产业内的拼搏经历,使得他们在人工智能的产业化上具备以下两大独特优势:
1. 掌握了大量特定生产场景下的专业知识和数据资料:我们一般称其为行业knowhow,比如化工材料的配方或某种特殊的生产工艺流程等。这种行业knowhow往往是企业的核心机密,在一些数据采集封闭、生产流程保密的领域,往往只有少数几家企业可以获得足够训练人工智能模型的专业知识和数据资料。所以,很多产业里的企业在寻找技术合作方时,会对侵略性较强的技术型公司比较排斥,往往要求技术型公司提交算法源代码,目的在于避免培养潜在竞争对手。
2. 了解真实的交易和应用场景:比如怎样建立可靠的供应链,怎样探析市场的情报信息,怎样建立全新的商业模式和盈利模式等。这些内容看似都属于业务相关的范畴,但却是技术型公司的痛点,几乎90%的人工智能公司都死在了打磨商业模式、寻找应用场景的道路上。但对于产业里的企业来说,敏锐捕捉市场机会并从产业里赚到钱,是他们与生俱来的天然能力,所有不具备这种能力的企业都在过去的市场竞争中淘汰掉了。
随着人工智能技术准入门槛的降低,大量传统企业与人工智能技术的适配将更加便捷,未来每一家企业都具备成为“人工智能+公司”的潜质。相信随着国家新基建和数字化转型工作的不断深化,在各行各业里都会出现“产业+AI”的明星企业。
在人工智能的产业化之路上,少不了高校和科研机构的参与,对于产业里的企业来说,高校和科研机构可以很好补充其自身研发能力的不足。目前,我国的产学研成果转化的之路并不十分顺畅,虽然国家每年投入了大量科研经费,但由于学术、科研同商业、市场的差异巨大,高校和科研机构在商业判断和市场嗅觉等方面总显得不太“接地气”,更多的成果停留在实验室里很难走出去,面临“酒香也怕巷子深”的现实窘境。
另外,高校和科研机构往往在工程能力也有所欠缺,虽然容易聚集高层次的顶尖人才,但缺乏实际操作的操盘型业务能手。正因为强于研发而弱于市场,高校和科研机构往往更愿意将 科技 成果以出售、技术入股或收益分成的方式与产业里的企业进行合作,而不是自己开拓市场。与人工智能的技术型公司相比,高校和科研机构有着大量国家基础科研经费的保障,对于本就容易聚集人才的高校和科研机构来说,很多人工智能的技术型公司而言很复杂的技术,对于高校和科研机构来说并不困难。随着国家《科学技术进步法》的修订,科研人员参与到成果转化的途径也将更通畅,一旦企业找到适合自身的成果转化路径,就可以很好的与高校和科研机构建立“产业+技术”的联合。可以预见,未来各类新型技术和成果转化平台将持续涌现,作为技术与市场的桥梁。
三、以产业需求出发,以产业结果为验证标准
人工智能行业的发展变化很快,即使在产业内的从业人员也免不了持续性、高强度的学习和研究。各行各业的专家在跨到人工智能这个领域的时候,可能都需要经历持续性“回头看”的过程。笔者在2020年参与深圳特区人工智能立法的时候,关于“什么是人工智能”的界定,现在看起来内涵和外延都不充分。过去,我们曾经认为人工智能就是模拟人的智能,但随着近些年的发展,我们发现机器在模拟人的智能上出现了很多痛点,但在模拟昆虫、动物的智能上反而进展很快,很多成果应用在障碍躲避、行为预判等诸多领域。于是,我们发现人工智能并不能单纯界定为“模拟人的智能”,而应当是“人造的智能”。显然,当时几乎所有的立法专家对于人工智能的基础理解并不全面和前瞻。
人工智能学界有一个著名的猴子上树的故事:我们不能认为基于当下在人工智能领域的技术进步,都是为通用人工智能的到来添砖加瓦;这正如我们不能认为一只猴子上了树,就意味着它向登月迈了一大步一样。在人工智能的产业化之路上,我们必须保持着谦虚、务实的精神,一切从产业的需求出发,一切以产业的实际结果为验证标准。任何一种技术或者商业模式的验证,都有自己的时间窗口,当市场机遇的红利期错过后,再想实现企业的快速发展就非常困难了,势必面临更加激烈的肉搏战。
与人工智能技术的发展一样,产业化的道路总是“看”起来容易,“做”起来难。虽然我们不提倡以成败论英雄,但在人工智能的产业化道路上,能够解决真实问题、拿到客观结果,才是企业家需要思考的核心问题。对于每一个产业里的专家来说,与其采取一种“预判式”的论证,执着于向其他人说明自己了解的知识,远不如切实在产业里面做出现实案例更具有说服力。未来各行各业的每一家企业都是“人工智能+公司”,愿与行业里的同仁一起共同成长、见证人工智能产业化之路的发展。(彭嘉昊系上海人工智能研究院数字化治理中心主任)
校对:栾梦
openai能当爬虫使吗
你好,可以的,Spinning Up是OpenAI开源的面向初学者的深度强化学习资料,其中列出了105篇深度强化学习领域非常经典的文章, 见 Spinning Up:
博主使用Python爬虫自动爬取了所有文章,而且爬下来的文章也按照网页的分类自动分类好。
见下载资源:Spinning Up Key Papers
源码如下:
import os
import time
import urllib.request as url_re
import requests as rq
from bs4 import BeautifulSoup as bf
'''Automatically download all the key papers recommended by OpenAI Spinning Up.
See more info on:
Dependency:
bs4, lxml
'''
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36'
}
spinningup_url = ''
paper_id = 1
def download_pdf(pdf_url, pdf_path):
"""Automatically download PDF file from Internet
Args:
pdf_url (str): url of the PDF file to be downloaded
pdf_path (str): save routine of the downloaded PDF file
"""
if os.path.exists(pdf_path): return
try:
with url_re.urlopen(pdf_url) as url:
pdf_data = url.read()
with open(pdf_path, "wb") as f:
f.write(pdf_data)
except: # fix link at [102]
pdf_url = r""
with url_re.urlopen(pdf_url) as url:
pdf_data = url.read()
with open(pdf_path, "wb") as f:
f.write(pdf_data)
time.sleep(10) # sleep 10 seconds to download next
def download_from_bs4(papers, category_path):
"""Download papers from Spinning Up
Args:
papers (bs4.element.ResultSet): 'a' tags with paper link
category_path (str): root dir of the paper to be downloaded
"""
global paper_id
print("Start to ownload papers from catagory {}...".format(category_path))
for paper in papers:
paper_link = paper['href']
if not paper_link.endswith('.pdf'):
if paper_link[8:13] == 'arxiv':
# paper_link = ""
paper_link = paper_link[:18] + 'pdf' + paper_link[21:] + '.pdf' # arxiv link
elif paper_link[8:18] == 'openreview': # openreview link
# paper_link = ""
paper_link = paper_link[:23] + 'pdf' + paper_link[28:]
elif paper_link[14:18] == 'nips': # neurips link
paper_link = ""
else: continue
paper_name = '[{}] '.format(paper_id) + paper.string + '.pdf'
if ':' in paper_name:
paper_name = paper_name.replace(':', '_')
if '?' in paper_name:
paper_name = paper_name.replace('?', '')
paper_path = os.path.join(category_path, paper_name)
download_pdf(paper_link, paper_path)
print("Successfully downloaded {}!".format(paper_name))
paper_id += 1
print("Successfully downloaded all the papers from catagory {}!".format(category_path))
def _save_html(html_url, html_path):
"""Save requested HTML files
Args:
html_url (str): url of the HTML page to be saved
html_path (str): save path of HTML file
"""
html_file = rq.get(html_url, headers=headers)
with open(html_path, "w", encoding='utf-8') as h:
h.write(html_file.text)
def download_key_papers(root_dir):
"""Download all the key papers, consistent with the categories listed on the website
Args:
root_dir (str): save path of all the downloaded papers
"""
# 1. Get the html of Spinning Up
spinningup_html = rq.get(spinningup_url, headers=headers)
# 2. Parse the html and get the main category ids
soup = bf(spinningup_html.content, 'lxml')
# _save_html(spinningup_url, 'spinningup.html')
# spinningup_file = open('spinningup.html', 'r', encoding="UTF-8")
# spinningup_handle = spinningup_file.read()
# soup = bf(spinningup_handle, features='lxml')
category_ids = []
categories = soup.find(name='div', attrs={'class': 'section', 'id': 'key-papers-in-deep-rl'}).\
find_all(name='div', attrs={'class': 'section'}, recursive=False)
for category in categories:
category_ids.append(category['id'])
# 3. Get all the categories and make corresponding dirs
category_dirs = []
if not os.path.exitis(root_dir):
os.makedirs(root_dir)
for category in soup.find_all(name='h2'):
category_name = list(category.children)[0].string
if ':' in category_name: # replace ':' with '_' to get valid dir name
category_name = category_name.replace(':', '_')
category_path = os.path.join(root_dir, category_name)
category_dirs.append(category_path)
if not os.path.exists(category_path):
os.makedirs(category_path)
# 4. Start to download all the papers
print("Start to download key papers...")
for i in range(len(category_ids)):
category_path = category_dirs[i]
category_id = category_ids[i]
content = soup.find(name='div', attrs={'class': 'section', 'id': category_id})
inner_categories = content.find_all('div')
if inner_categories != []:
for category in inner_categories:
category_id = category['id']
inner_category = category.h3.text[:-1]
inner_category_path = os.path.join(category_path, inner_category)
if not os.path.exists(inner_category_path):
os.makedirs(inner_category_path)
content = soup.find(name='div', attrs={'class': 'section', 'id': category_id})
papers = content.find_all(name='a',attrs={'class': 'reference external'})
download_from_bs4(papers, inner_category_path)
else:
papers = content.find_all(name='a',attrs={'class': 'reference external'})
download_from_bs4(papers, category_path)
print("Download Complete!")
if __name__ == "__main__":
root_dir = "key-papers"
download_key_papers(root_dir)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
开放api是开源吗
开放API并不等同于开源。开放API是指一个软件或平台允许第三方开发者使用其接口和数据,以便创建新的应用程序或服务。开源则是指软件的源代码是公开的,任何人都可以查看、修改和分发。虽然开放API和开源都可以促进创新和合作,但它们是不同的概念。
开放API的优点是可以让不同的应用程序之间实现互操作性,从而提高整个生态系统的价值。例如,许多社交媒体平台都提供开放API,使得第三方开发者可以创建各种应用程序,如社交媒体管理工具、数据分析工具等。这些应用程序可以帮助用户更好地管理和分析他们的社交媒体账户,从而提高效率和效果。
总之,开放API和开源是两个不同的概念,但它们都可以促进创新和合作。开放API可以让不同的应用程序之间实现互操作性,从而提高整个生态系统的价值。而开源则可以让开发者更容易地查看、修改和分发软件的源代码,从而促进创新和合作。
openai是什么
OpenAI是由诸多硅谷大亨联合建立的人工智能非营利组织,成立于2015年12月。
2016年11月16日,微软宣布,与由特斯拉首席执行官埃隆·马斯克和YCombinator总裁山姆·阿尔塔曼联合创建的估值达10亿美元的人工智能非盈利性研究公司OpenAI展开合作。
2019年7月23日,微软宣布出资10亿美元,投向知名AI研究机构OpenAI,双方达成一项多年合作协议——OpenAI在微软Azure云平台开发AI技术。2021年5月27日,OpenAI宣布与微软成立1亿美元的人工智能创业基金。
作为一个非盈利性人工智能项目,OpenAI的使命是 “推动数字智能的发展,同时不被财务回报所限制,从而造福整个人类”。OpenAI获得的投资承诺已经超过10亿美元,资金提供方包括Sam Altman、Elon Musk、PayPal联合创始人Peter Thiel、LinkedIn联合创始人Reid Hoffman、AWS、Infosys和YC Research等。
发展历史:
2015年12月12日,非盈利性的人工智能项目—OpenAI宣布正式启动,YCombinator总裁 Sam Altman和特斯拉CEO Elon Musk将共同担任OpenAI的联席主席。
2017年5月,OpenAI发布了一款能在“观看”人类搭积木后模仿这一行为的机器人。
2017年8月12日,在Dota 2国际邀请赛上Open AI公司的机器人在Dota2 1v1比赛中战胜了Dota人类顶级职业玩家Dendi。
2021年1月7日,旧金山人工智能研究公司OpenAI已经开发了一种新系统,能根据短文本来生成图像。OpenAI在官方博客中表示,这个新系统名为DALL-E,名称来源于艺术家萨尔瓦多·达利和皮克斯的机器人英雄瓦力的结合。新系统展示了“为一系列广泛的概念”创造图像的能力,创作的作品包括牛油果形状的扶手椅等。