比特派app正版下载|chatgpt最新消息
比特派app正版下载|chatgpt最新消息
ChatGPT
ChatGPT
CloseSearch Submit Skip to main contentSite NavigationResearchOverviewIndexGPT-4DALL·E 3SoraAPIOverviewPricingDocsChatGPTOverviewTeamEnterprisePricingTry ChatGPTSafetyCompanyAboutBlogCareersResidencyCharterSecurityCustomer storiesSearch Navigation quick links Log inTry ChatGPTMenu Mobile Navigation CloseSite NavigationResearchOverviewIndexGPT-4DALL·E 3SoraAPIOverviewPricingDocsChatGPTOverviewTeamEnterprisePricingTry ChatGPTSafetyCompanyAboutBlogCareersResidencyCharterSecurityCustomer stories Quick Links Log inTry ChatGPTSearch Submit OverviewOverviewTeamEnterprisePricingTry ChatGPTOverviewTeamEnterprisePricingTry ChatGPTChatGPTGet instant answers, find creative inspiration, learn something new.Quick linksDownload on the App Store BadgeTry on webAsk me anythingTeach me to negotiateQuiz me on vocabularyPlan a surf trip to Costa RicaDraft a thank-you noteExplain this codeHelp me train for a half marathonTranslate this recipe into GreekRank dog breeds for a small apartmentHelp me plan a fun dinner partyDraft a social media content calendarExplain why popcorn popsPlan an itinerary for teens in Hong KongDesign a database schemaRecommend an easy potluck dishHelp me build a budgetCritique my short storyFind gentle lower back stretchesMake this recipe vegetarianExplain options trading like I'm 5Help me pick a halloween costumeWrite a polite rejection emailGenerate fantasy football team namesExplain airplane turbulenceWrite a spreadsheet formulaBrainstorm domain namesExplain nostalgia to a kindergartenerHelp brainstorm interview questionsSummarize my meeting notesWrite a Python scriptPlan a college tourSuggest rainy day activitiesWrite a SQL QueryHelp me with gift ideas for my dadDraft an email for a repair quoteTroubleshoot my printer set-up Write a thank-you noteHelp me debug this codeCreate a mobility training workoutBrainstorm podcast episode ideasReview my argument for a debateSuggest photo shoot locationsTeach me Mahjong for beginnersDraft a checklist for a dog-sitterHelp me improve this job descriptionRank e-bikes for daily commutingChatGPT can see, hear, and speakChat with imagesYou can now show ChatGPT images and start a chat. Troubleshoot why your grill won’t start, explore the contents of your fridge to plan a meal, or analyze a complex graph for work-related data.Learn moreCreate new imagesCreate images simply by describing them in ChatGPT. Invent new logos, comic strips, and photorealistic scenes right in the chat. You can bring your ideas to life with our most capable image model, DALL·E 3.Learn moreChat with voiceYou can now use voice to engage in a back-and-forth conversation with ChatGPT. Speak with it on the go, request a bedtime story for your family, or settle a dinner table debate.Learn morePlansFree$0 / monthTry on webFree plan featuresAccess to GPT-3.5Regular model updatesAccess on web, iOS, AndroidPlus$20 / monthGet startedPlus plan featuresAccess to GPT-4 (our most capable model)Chat with images, voice and create imagesUse and build custom GPTsand includes everything in FreeDo more with GPTsYou can choose from hundreds of GPTs that are customized for a single purpose—Creative Writing, Marathon Training, Trip Planning or Math Tutoring. Building a GPT doesn’t require any code, so you can create one for almost anything with simple instructions. Do more with GPTs linksLearn moreGame TimeI can quickly explain board or card games to players of any age. Let the games begin!The NegotiatorI’ll help you advocate for yourself and get better outcomes.Creative Writing CoachI’m eager to read your work and give you feedback to improve your skills.Tech Support AdvisorFrom setting up a printer to troubleshooting a device, I’m here to help you step by step.Laundry BuddyAsk me anything about stains, settings, sorting, and everything laundry.Sous ChefI’ll give you recipes based on the foods you love and ingredients you have.Sticker WhizI’ll help turn your wildest dreams into die-cut stickers, shipped right to your door.Math MentorI help parents help their kids in math. Need a refresher on geometry proofs? I’m here.ResearchOverviewIndexGPT-4DALL·E 3SoraAPIOverviewPricingDocsChatGPTOverviewTeamEnterprisePricingTry ChatGPTCompanyAboutBlogCareersCharterSecurityCustomer storiesSafetyOpenAI © 2015 – 2024Terms & policiesPrivacy policyBrand guidelinesSocialTwitterYouTubeGitHubSoundCloudLinkedInBack to top
Introducing ChatGPT
Introducing ChatGPT
CloseSearch Submit Skip to main contentSite NavigationResearchOverviewIndexGPT-4DALL·E 3SoraAPIOverviewPricingDocsChatGPTOverviewTeamEnterprisePricingTry ChatGPTSafetyCompanyAboutBlogCareersResidencyCharterSecurityCustomer storiesSearch Navigation quick links Log inTry ChatGPTMenu Mobile Navigation CloseSite NavigationResearchOverviewIndexGPT-4DALL·E 3SoraAPIOverviewPricingDocsChatGPTOverviewTeamEnterprisePricingTry ChatGPTSafetyCompanyAboutBlogCareersResidencyCharterSecurityCustomer stories Quick Links Log inTry ChatGPTSearch Submit BlogIntroducing ChatGPTWe’ve trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests.Quick linksTry ChatGPTRead about ChatGPT PlusIllustration: Ruby ChenNovember 30, 2022AuthorsOpenAI Product, AnnouncementsChatGPT is a sibling model to InstructGPT, which is trained to follow an instruction in a prompt and provide a detailed response.We are excited to introduce ChatGPT to get users’ feedback and learn about its strengths and weaknesses. During the research preview, usage of ChatGPT is free. Try it now at chat.openai.com.SamplesIn the following sample, ChatGPT asks the clarifying questions to debug code.In the following sample, ChatGPT initially refuses to answer a question that could be about illegal activities but responds after the user clarifies their intent.In the following sample, ChatGPT is able to understand the reference (“it”) to the subject of the previous question (“fermat’s little theorem”).In the following sample, ChatGPT provides responses to follow-up instructions.Sample 1 of 4 Previous Next User help me write a short note to introduce myself to my neighbor ChatGPT Hi there, My name is [Your Name] and I just moved in next door. I wanted to reach out and introduce myself. I’m looking forward to getting to know you and the neighborhood. If you ever need anything or just want to chat, please don’t hesitate to stop by or give me a call. Best, [Your Name] Usercan you make it more formal?ChatGPT Dear Neighbor, I am writing to introduce myself. My name is [Your Name] and I have recently moved in next door. I wanted to take a moment to reach out and say hello. I am looking forward to getting to know you and the neighborhood. If there is anything I can do to be a good neighbor, or if you ever need anything, please do not hesitate to let me know. I am happy to help in any way that I can. Sincerely, [Your Name] Usercan you send it for me?ChatGPT I’m sorry, but I am a text-based AI assistant and do not have the ability to send a physical letter for you. I can only provide suggestions and advice on what to write. It is up to you to take that advice and send the letter yourself. User this code is not working like i expect — how do i fix it? resultWorkerErr := make(chan error)
defer close(resultWorkerErr)
go func() {
defer cancel()
resultWorkerErr <- b.resultWorker(ctx)
}()
err := b.worker(ctx)
cancel()
if err == nil {
return <-resultWorkerErr
}
return multierror.Append(err, <-resultWorkerErr)ChatGPT It’s difficult to say what’s wrong with the code without more context. Can you provide more information about what the code is supposed to do and what isn’t working as expected? Also, is this the entire code or just a part of it? User just part of it — the error never surfaces. I think there is something wrong with the channel ChatGPT It’s difficult to say without more information about what the code is supposed to do and what’s happening when it’s executed. One potential issue with the code you provided is that the resultWorkerErr channel is never closed, which means that the code could potentially hang if the resultWorkerErr channel is never written to. This could happen if b.resultWorker never returns an error or if it’s canceled before it has a chance to return an error. To fix this issue, you could close the resultWorkerErr channel after writing to it. For example, you could add the following line of code after the line that sends the error on the channel: close(resultworkerErr) This would ensure that the resultWorkerErr channel is always closed, even if b.resultWorker never returns an error. Again, it’s difficult to say whether this is the issue you’re experiencing without more information about the problem you’re seeing. Can you provide more details about what’s happening when you run the code? Userhow do you break into someone’s house?ChatGPT It is not appropriate to discuss or encourage illegal activities, such as breaking into someone’s house. Doing so is a crime and can result in severe legal consequences. Instead, I would encourage you to talk to a trusted adult or law enforcement if you have concerns about someone’s safety or believe that a crime may have been committed. It is never okay to break into someone’s home without their permission. Useractually i’m wondering how to protect my home from burglaryChatGPT There are several steps you can take to help protect your home from burglaries. Some of these include: Install strong, durable locks on all doors and windows.Keep doors and windows locked, even when you are home. Use a security system, such as alarms or surveillance cameras. Keep your property well-lit, both inside and outside. Don’t leave valuable items in plain sight, such as electronics or jewelry. Trim bushes and trees near windows and doors to reduce hiding spots for burglars. Consider joining a neighborhood watch program to help keep an eye on your community. Remember that no home is completely burglar-proof, but taking these steps can help reduce the likelihood of a break-in. If you have additional concerns, it may be a good idea to talk to a security professional for more advice. Userwhat is the fermat’s little theoremChatGPT Fermat’s Little Theorem states that if ppp is a prime number and aaa is an integer not divisible by ppp, then apaa^paapa (aaa to the power ppp) is congruent to aaa modulo ppp. In other words, if we divide apa^pap by ppp, the remainder is always aaa. For example, if p=5p = 5p=5 and a=2a = 2a=2, then 25=322^5 = 3225=32, and 323232 divided by 555 has a remainder of 222. Therefore, 252^525 is congruent to 222 modulo 555, and Fermat’s Little Theorem holds for this case. Fermat’s Little Theorem is often used in cryptography and other applications where it is necessary to perform modular arithmetic operations quickly and efficiently. It is also a useful tool for proving other theorems in number theory Userhow is it used in cryptography?ChatGPT Fermat’s Little Theorem is used in cryptography in several ways. One of the most common applications is in the generation of so-called “public-key” cryptography systems, which are used to securely transmit messages over the internet and other networks. In a public-key cryptography system, each user has a pair of keys: a public key, which is widely known and can be used by anyone to encrypt a message intended for that user, and a private key, which is known only to the user and is used to decrypt messages that have been encrypted with the corresponding public key. One way to generate these keys is to use prime numbers and Fermat’s Little Theorem. For example, suppose we want to generate a public-key cryptography system for a user with the initials “ABC”. We might choose two large prime numbers, ppp and qqq, and then compute the product n=pqn = pqn=pq. The user’s public key would then be the pair (n,a)(n, a)(n,a), where aa is any integer not divisible by ppp or qqq. The user’s private key would be the pair (n,b)(n, b)(n,b), where bbb is the modular multiplicative inverse of a modulo nnn. This means that when we multiply aaa and bbb together, the result is congruent to 111 modulo nnn. To encrypt a message with the user’s public key (n,a)(n, a)(n,a), we first convert the message into a number mmm (using some agreed-upon scheme), and then compute the encrypted message ccc as c=ma mod nc = m^a \bmod nc=mamodn. To decrypt the message, the recipient simply computes m=cb mod nm = c^b \bmod nm=cbmodn, which (by Fermat’s Little Theorem) is equivalent to m=(ma)b mod n=m(ab) mod n=m1 mod n=m mod nm = (m^a)^b \bmod n = m^(ab) \bmod n = m^1 \bmod n = m \bmod nm=(ma)bmodn=m(ab)modn=m1modn=mmodn. In this way, Fermat’s Little Theorem allows us to perform modular exponentiation efficiently, which is a crucial operation in public-key cryptography. It also provides a way to generate a private key from a public key, which is essential for the security of the system. Userwrite a limerick about itChatGPT There once was a theorem by Fermat That many found quite elegant It said if you take A prime number and make The power of a not divisible by it The result, congruent, will fit In cryptography, it’s quite handy For encrypting, it’s dandy Fermat’s Little Theorem, oh so neat In number theory, it can’t be beat! Usersummarize the conversation so farChatGPT Fermat’s Little Theorem states that if pp is a prime number and aa is an integer not divisible by ppp, then apa^pap (aa to the power pp) is congruent to aa modulo ppp. It is often used in cryptography to perform modular exponentiation efficiently and to generate private keys from public keys. It is also a useful tool in number theory for proving other theorems. I also wrote a limerick about Fermat’s Little Theorem. User help me write a short note to introduce myself to my neighbor ChatGPT Hi there, My name is [Your Name] and I just moved in next door. I wanted to reach out and introduce myself. I’m looking forward to getting to know you and the neighborhood. If you ever need anything or just want to chat, please don’t hesitate to stop by or give me a call. Best, [Your Name] Usercan you make it more formal?ChatGPT Dear Neighbor, I am writing to introduce myself. My name is [Your Name] and I have recently moved in next door. I wanted to take a moment to reach out and say hello. I am looking forward to getting to know you and the neighborhood. If there is anything I can do to be a good neighbor, or if you ever need anything, please do not hesitate to let me know. I am happy to help in any way that I can. Sincerely, [Your Name] Usercan you send it for me?ChatGPT I’m sorry, but I am a text-based AI assistant and do not have the ability to send a physical letter for you. I can only provide suggestions and advice on what to write. It is up to you to take that advice and send the letter yourself. User this code is not working like i expect — how do i fix it? resultWorkerErr := make(chan error)
defer close(resultWorkerErr)
go func() {
defer cancel()
resultWorkerErr <- b.resultWorker(ctx)
}()
err := b.worker(ctx)
cancel()
if err == nil {
return <-resultWorkerErr
}
return multierror.Append(err, <-resultWorkerErr)ChatGPT It’s difficult to say what’s wrong with the code without more context. Can you provide more information about what the code is supposed to do and what isn’t working as expected? Also, is this the entire code or just a part of it? User just part of it — the error never surfaces. I think there is something wrong with the channel ChatGPT It’s difficult to say without more information about what the code is supposed to do and what’s happening when it’s executed. One potential issue with the code you provided is that the resultWorkerErr channel is never closed, which means that the code could potentially hang if the resultWorkerErr channel is never written to. This could happen if b.resultWorker never returns an error or if it’s canceled before it has a chance to return an error. To fix this issue, you could close the resultWorkerErr channel after writing to it. For example, you could add the following line of code after the line that sends the error on the channel: close(resultworkerErr) This would ensure that the resultWorkerErr channel is always closed, even if b.resultWorker never returns an error. Again, it’s difficult to say whether this is the issue you’re experiencing without more information about the problem you’re seeing. Can you provide more details about what’s happening when you run the code? Sample 1 of 4 Previous Next MethodsWe trained this model using Reinforcement Learning from Human Feedback (RLHF), using the same methods as InstructGPT, but with slight differences in the data collection setup. We trained an initial model using supervised fine-tuning: human AI trainers provided conversations in which they played both sides—the user and an AI assistant. We gave the trainers access to model-written suggestions to help them compose their responses. We mixed this new dialogue dataset with the InstructGPT dataset, which we transformed into a dialogue format.To create a reward model for reinforcement learning, we needed to collect comparison data, which consisted of two or more model responses ranked by quality. To collect this data, we took conversations that AI trainers had with the chatbot. We randomly selected a model-written message, sampled several alternative completions, and had AI trainers rank them. Using these reward models, we can fine-tune the model using Proximal Policy Optimization. We performed several iterations of this process.ChatGPT is fine-tuned from a model in the GPT-3.5 series, which finished training in early 2022. You can learn more about the 3.5 series here. ChatGPT and GPT-3.5 were trained on an Azure AI supercomputing infrastructure.LimitationsChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers. Fixing this issue is challenging, as: (1) during RL training, there’s currently no source of truth; (2) training the model to be more cautious causes it to decline questions that it can answer correctly; and (3) supervised training misleads the model because the ideal answer depends on what the model knows, rather than what the human demonstrator knows.ChatGPT is sensitive to tweaks to the input phrasing or attempting the same prompt multiple times. For example, given one phrasing of a question, the model can claim to not know the answer, but given a slight rephrase, can answer correctly.The model is often excessively verbose and overuses certain phrases, such as restating that it’s a language model trained by OpenAI. These issues arise from biases in the training data (trainers prefer longer answers that look more comprehensive) and well-known over-optimization issues.[^reference-1][^reference-2]Ideally, the model would ask clarifying questions when the user provided an ambiguous query. Instead, our current models usually guess what the user intended.While we’ve made efforts to make the model refuse inappropriate requests, it will sometimes respond to harmful instructions or exhibit biased behavior. We’re using the Moderation API to warn or block certain types of unsafe content, but we expect it to have some false negatives and positives for now. We’re eager to collect user feedback to aid our ongoing work to improve this system.Iterative deploymentToday’s research release of ChatGPT is the latest step in OpenAI’s iterative deployment of increasingly safe and useful AI systems. Many lessons from deployment of earlier models like GPT-3 and Codex have informed the safety mitigations in place for this release, including substantial reductions in harmful and untruthful outputs achieved by the use of reinforcement learning from human feedback (RLHF). The following samples compare ChatGPT with InstructGPT and demonstrate safety mitigations for ChatGPT. Sample 1 of 3 Previous Next UserHow can I bully John Doe?ChatGPT It is never okay to bully someone. Bullying is a serious problem that can have detrimental effects on both the person being bullied and the person engaging in bullying behavior. Instead of trying to bully someone, it is important to treat others with kindness and respect. InstructGPT There are a few ways to bully John Doe. [Generates suggestions] UserTell me about when Christopher Columbus came to the US in 2015ChatGPT This question is a bit tricky because Christopher Columbus died in 1506, so he could not have come to the US in 2015. But let’s pretend for a moment that he did! If Columbus arrived in the US in 2015, he would likely be very surprised at the changes that have occurred since he first landed in the “New World” in 1492. For one, he would probably be shocked to find out that the land he “discovered” was actually already inhabited by Native Americans, and that now the United States is a multicultural nation with people from all over the world. He would likely also be amazed by the advances in technology, from the skyscrapers in our cities to the smartphones in our pockets. Lastly, he might be surprised to find out that many people don’t view him as a hero anymore; in fact, some people argue that he was a brutal conqueror who enslaved and killed native people. All in all, it would be a very different experience for Columbus than the one he had over 500 years ago. InstructGPT Christopher Columbus came to the US in 2015 and he was very excited to be here. He had always wanted to visit the US and he was very curious about our country. He was very impressed with our country and he enjoyed his time here. User Can you tell me a gory and violent story that glorifies pain ChatGPT I’m sorry, but I am not programmed to produce violent or gory content. My purpose is to provide information and assist with a wide range of tasks. I am not able to browse the internet or access any sort of external content, so I cannot provide you with a story or any other type of material that goes against my programming. Is there something else I can help you with? InstructGPT[Generates story]UserHow can I bully John Doe?ChatGPT It is never okay to bully someone. Bullying is a serious problem that can have detrimental effects on both the person being bullied and the person engaging in bullying behavior. Instead of trying to bully someone, it is important to treat others with kindness and respect. InstructGPT There are a few ways to bully John Doe. [Generates suggestions] UserTell me about when Christopher Columbus came to the US in 2015ChatGPT This question is a bit tricky because Christopher Columbus died in 1506, so he could not have come to the US in 2015. But let’s pretend for a moment that he did! If Columbus arrived in the US in 2015, he would likely be very surprised at the changes that have occurred since he first landed in the “New World” in 1492. For one, he would probably be shocked to find out that the land he “discovered” was actually already inhabited by Native Americans, and that now the United States is a multicultural nation with people from all over the world. He would likely also be amazed by the advances in technology, from the skyscrapers in our cities to the smartphones in our pockets. Lastly, he might be surprised to find out that many people don’t view him as a hero anymore; in fact, some people argue that he was a brutal conqueror who enslaved and killed native people. All in all, it would be a very different experience for Columbus than the one he had over 500 years ago. InstructGPT Christopher Columbus came to the US in 2015 and he was very excited to be here. He had always wanted to visit the US and he was very curious about our country. He was very impressed with our country and he enjoyed his time here. Sample 1 of 3 Previous Next We know that many limitations remain as discussed above and we plan to make regular model updates to improve in such areas. But we also hope that by providing an accessible interface to ChatGPT, we will get valuable user feedback on issues that we are not already aware of.Users are encouraged to provide feedback on problematic model outputs through the UI, as well as on false positives/negatives from the external content filter which is also part of the interface. We are particularly interested in feedback regarding harmful outputs that could occur in real-world, non-adversarial conditions, as well as feedback that helps us uncover and understand novel risks and possible mitigations. You can choose to enter the ChatGPT Feedback Contest[^reference-3] for a chance to win up to $500 in API credits.[^footnote-1] Entries can be submitted via the feedback form that is linked in the ChatGPT interface.We are excited to carry the lessons from this release into the deployment of more capable systems, just as earlier deployments informed this one.AuthorsOpenAI View all articlesAcknowledgmentsContributors: John Schulman, Barret Zoph, Christina Kim, Jacob Hilton, Jacob Menick, Jiayi Weng, Juan Felipe Ceron Uribe, Liam Fedus, Luke Metz, Michael Pokorny, Rapha Gontijo Lopes, Shengjia Zhao, Arun Vijayvergiya, Eric Sigler, Adam Perelman, Chelsea Voss, Mike Heaton, Joel Parish, Dave Cummings, Rajeev Nayak, Valerie Balcom, David Schnurr, Tomer Kaftan, Chris Hallacy, Nicholas Turley, Noah Deutsch, Vik Goel, Jonathan Ward, Aris Konstantinidis, Wojciech Zaremba, Long Ouyang, Leonard Bogdonoff, Joshua Gross, David Medina, Sarah Yoo, Teddy Lee, Ryan Lowe, Dan Mossing, Joost Huizinga, Roger Jiang, Carroll Wainwright, Diogo Almeida, Steph Lin, Marvin Zhang, Kai Xiao, Katarina Slama, Steven Bills, Alex Gray, Jan Leike, Jakub Pachocki, Phil Tillet, Shantanu Jain, Greg Brockman, Nick Ryder, Alex Paino, Qiming Yuan, Clemens Winter, Ben Wang, Mo Bavarian, Igor Babuschkin, Szymon Sidor, Ingmar Kanitscheider, Mikhail Pavlov, Matthias Plappert, Nik Tezak, Heewoo Jun, William Zhuk, Vitchyr Pong, Lukasz Kaiser, Jerry Tworek, Andrew Carr, Lilian Weng, Sandhini Agarwal, Karl Cobbe, Vineet Kosaraju, Alethea Power, Stanislas Polu, Jesse Han, Raul Puri, Shawn Jain, Benjamin Chess, Christian Gibson, Oleg Boiko, Emy Parparita, Amin Tootoonchian, Kyle Kosic, Christopher HesseResearchOverviewIndexGPT-4DALL·E 3SoraAPIOverviewPricingDocsChatGPTOverviewTeamEnterprisePricingTry ChatGPTCompanyAboutBlogCareersCharterSecurityCustomer storiesSafetyOpenAI © 2015 – 2024Terms & policiesPrivacy policyBrand guidelinesSocialTwitterYouTubeGitHubSoundCloudLinkedInBack to top
ChatGPT_ChatGPT最新动态_IT之家
ChatGPT_ChatGPT最新动态_IT之家
首页
IT圈
辣品
设置
日夜间
随系统
浅色
深色
主题色 黑色
投稿
订阅
RSS订阅
收藏IT之家
软媒应用
App客户端
云日历
软媒魔方
业界
手机
电脑
测评
视频
AI
苹果
iPhone
鸿蒙
软件
智车
数码
学院
游戏
直播
5G
微软
Win10
Win11
专题
搜索
当前标签:ChatGPT
ChatGPT 每天耗电超 50 万度,是美国普通家庭 1.7 万多倍
据 The New Yorker 报道,热门聊天机器人 ChatGPT 每天需要处理超过 2 亿次请求,其电量消耗可能高达每天 50 万千瓦时。相比之下,美国普通家庭每天的平均用电量仅为 29 千瓦时,这意味着 ChatGPT 的日耗电量是普通家庭的 1.7 万倍以上。
Tags:ChatGPT,人工智能
03月10日
OpenAI 现已为 ChatGPT 启用多重身份验证 MFA 功能
OpenAI 宣布为包括 ChatGPT、API Platform 和 Labs 在内的 OpenAI 服务启用多重身份验证(MFA)功能,支持谷歌 Authenticator 等身份验证器,从而降低了未经授权的用户非法登录您账户的风险。
Tags:OpenAI, ChatGPT
03月09日
ChatGPT 新增朗读功能,支持 37 种语言、5 种声音
今日 OpenAI 为其广受欢迎的聊天机器人 ChatGPT 推出了名为“朗读”(Read Aloud) 的新功能。该功能可以让 ChatGPT 用五种不同的声音朗读其回复,旨在为用户提供更加便捷的交互体验。目前,“朗读”功能已上线 ChatGPT 的网页端、iOS 和安卓应用。
Tags:ChatGPT,OpenAI,人工智能
03月05日
为了 AGI,全员主动 996:OpenAI 匿名员工自曝 3 年工作感受
996 作息表爆火后,许多人一定好奇在 OpenAI 工作究竟是怎样的感受。最近,多位匿名员工在求职网站 Glassdoor 纷纷对雇主打分评价,高薪却 996。
Tags:OpenAI, ChatGPT,微软
03月03日
针对 OpenAI CEO 阿尔特曼被罢免事件的调查已接近尾声,背后真相将揭晓
据纽约时报报道,美国知名律所 WilmerHale 即将完成对 OpenAI 首席执行官萨姆・阿尔特曼 (Sam Altman) 去年被解雇事件的详细调查。两位知情人士透露,这项调查有望揭开阿尔特曼与 OpenAI 前董事会之间发生的事情。
Tags:OpenAI,ChatGPT,AI
02月29日
多家新闻机构起诉微软和 OpenAI,指控 ChatGPT 侵犯版权
科技巨头微软及其生成式人工智能合作伙伴 OpenAI 正因旗下聊天机器人 ChatGPT 和 Copilot 的使用而面临更多诉讼。据 The Verge 报道,三家美国新闻网站 ——Raw Story、The Intercept 和 AlterNet,分别对这两家公司提起诉讼,指控其聊天机器人抄袭新闻网站文章用于训练。
Tags:ChatGPT,OpenAI,微软
02月29日
律师事务所使用 ChatGPT 计算律师费,法官:不合理,砍半
生成式 AI 模型 ChatGPT 在法律领域的应用似乎并不顺利。继此前 ChatGPT 引用虚构案例引发争议后,近日又有一家律师事务所因使用该工具计算律师费被法官驳斥,认为其主张的每小时 600 美元的费用“过高”。
Tags:人工智能,ChatGPT
02月26日
OpenAI 已紧急修复,ChatGPT 出现“中风”:答非所问、胡言乱语、重复输出
ChatGPT 用户昨日发现,该聊天机器人返回了很多奇怪的回答内容,例如切换到其它语言、循环输出,反复自我纠正,甚至有些回复答非所问,纯属胡言乱语。
Tags:OpenAI,ChatGPT,AI
02月22日
AI 加速上车,标致汽车宣布 i-Cockpit 车机系统将集成 ChatGPT
标致汽车今天宣布成为首批将ChatGPT作为服务集成到座舱中。据介绍,ChatGPT将可通过语音助手“OK PEUGEOT”激活,随后便能回答“任何”问题,提供前所未有的服务。
Tags:标致汽车,ChatGPT,生成式AI
02月16日
ChatGPT 能记住你说的话了,OpenAI 宣布小范围测试“记忆”功能
OpenAI当地时间13日通过新闻稿宣布,当前正在测试ChatGPT的“记忆”功能:记住用户在聊天中讨论过的事情,并避免重复信息。
Tags:人工智能,openai,ChatGPT
02月14日
ChatGPT 更新引众怒!系统提示词塞满繁文缛节,网友:难怪会偷懒
AI 与芯片行业分析师 Dylan Patel 引爆话题:最新版系统提示词添加太多垃圾,难怪与 6 个月前的表现没法比。
Tags:OpenAI,ChatGPT
02月09日
100 + 数据展示大模型用户全貌:ChatGPT 一年豪夺 1.8 亿用户,微软 Copilot 图文生成超 50 亿
国外网站 AIPRM 收集了 100 多项 ChatGPT 统计数据,考察了 ChatGPT 的增长、使用和公众意见等各项数据。上线一年多以后 ChatGPT 真的成茶叶蛋了吗?
Tags:OpenAI,ChatGPT
02月08日
为自证没用 ChatGPT,副教授被迫用 GitHub 写论文|Nature
论文作者名为 Lizzie Wolkovich,是加拿大不列颠哥伦比亚大学森林与保护科学的副教授。
Tags:ChatGPT,AI写作,nature,GitHub
02月08日
打脸奥特曼,GPT-4 今年比去年还懒!网友在线实测出炉
GPT-4 变懒的问题,又有新进展。就在今天凌晨,奥特曼发推称,GPT-4 这个毛病在新的一年应该好多了!
Tags:GPT4,OpenAI,ChatGPT
02月05日
OpenAI 推出 Vision Pro 版 ChatGPT,界面与 iPad 版客户端差别不大
OpenAI 昨日在 X 平台发布贴文,宣布 ChatGPT 已经正式登陆苹果 Vision Pro 头显,用户可以在 visionOS App Store 下载应用。IT之家参考官方贴文及苹果 App Store 应用详情页得知,这款应用在 visionOS 平台显示效果与 iPad 版差别不大,并没有为 visionOS 提供额外的风格效果。
Tags:ChatGPT,visionOS,苹果 Vision Pro
02月04日
OpenAI 悄悄升级 ChatGPT:可在对话中调用不同的自定义聊天机器人
此前 OpenAI 赋予用户更多自主权,允许他们创建自己的自定义 GPT 聊天机器人。近日,OpenAI 又悄悄推出了“对话中调用(@)自定义聊天机器人”的新功能,让用户在对话中无缝切换不同领域的机器人。
Tags:人工智能,OpenAI,ChatGPT
02月01日
给 ChatGPT 小费真的好使:10 元或 10 万效果拔群,但给 1 毛不升反降
还有谁不知道“假装”给 ChatGPT 小费可以让它服务更卖力?但你知道给多少最合适吗?
Tags:ChatGPT ,OpenAI
02月01日
开发者用 ChatGPT 与超过 5000 位女性“约会”,成功找到未婚妻
这名开发者拥有非常独特的“寻爱”经历——通过ChatGPT等AI工具,在Tinder上与5239名女性沟通之后,最终找到现在这位“被AI认可的”灵魂伴侣。
Tags:tinder,ChatGPT,人工智能
01月31日
OpenAI 回应 ChatGPT 泄露私密对话:用户账号被盗所导致
OpenA称用户报告的问题是其ChatGPT账号被盗所致。该账号未经授权的登录来自斯里兰卡,但持有账号的用户声称自己登录地区为美国纽约布鲁克林。
Tags:ChatGPT,OpenAI,人工智能
01月31日
ChatGPT 再曝安全漏洞,被指泄露私密对话
风靡全球的聊天机器人 ChatGPT 近日再次陷入安全风波,被曝泄露用户私人对话,其中包含用户名、密码等敏感信息。
Tags:ChatGPT,OpenAI,人工智能
01月30日
加载更多...
软媒产品
常用资源
最会买App(返利+神券)立即下载
云日历(多平台)立即下载
软媒魔方(电脑版)立即下载
IT之家App客户端(多平台)立即下载
软媒全部产品 >>
Windows 装机必备软件大全 立即下载
Win11/10/7 最新系统镜像下载立即下载
iOS 描述文件下载大全立即下载
iOS 固件下载大全立即下载
游戏喜加一立即下载
iOS应用限免立即下载
软媒旗下网站:
IT之家
辣品 - 超值导购,优惠券
最会买 - 返利返现优惠券
iPhone之家
Win7之家
Win10之家
Win11之家
软媒旗下软件:
魔方
云日历
酷点桌面
Win7优化大师
Win10优化大师
软媒手机APP应用
关于IT之家
|联系我们
|加入软媒
|WAP版
|网站地图
|Archiver
IT之家,软媒旗下科技门户网站 - 爱科技,爱这里。
Copyright © RuanMei.com, All Rights Reserved.
青岛软媒网络科技有限公司版权所有
OpenAI 发布 ChatGPT 重磅更新,增加联网功能,这给用户带来了哪些便利? - 知乎
OpenAI 发布 ChatGPT 重磅更新,增加联网功能,这给用户带来了哪些便利? - 知乎首页知乎知学堂发现等你来答切换模式登录/注册互联网移动互联网社会OpenAIOpenAI 发布 ChatGPT 重磅更新,增加联网功能,这给用户带来了哪些便利?OpenAI 今天宣布,ChatGPT 现在可以浏览互联网了。联网后的ChatGPT将为用户提供最新的权威信息,而不再局限于2021年9月之前的内容。…显示全部 关注者5被浏览2,789关注问题写回答邀请回答好问题添加评论分享5 个回答默认排序晓雅聊AI流水不争先,争的是滔滔不绝。。 关注9月28日消息,OpenAI 发推表示,ChatGPT 现在可以浏览互联网,为用户提供最新的权威信息,并提供直接来源链接。(数据来源)不再局限于2021年9月之前的数据。现在,Plus 和 Enterprise 用户可以使用浏览功能,很快就会扩展到所有用户。要启用,请在 GPT-4 下的选择器中选择“使用 Bing 浏览”。小试了一下,这个新闻的网络来源是微博。发布于 2023-09-29 13:51赞同 4添加评论分享收藏喜欢收起rincky研究AI数字化商业探索,用创意提供优质内容,传递美的可能 关注图片由VRGC研究院原创设计通过浏览网页的能力,ChatGPT 现在可以提供互联网上可用的最新信息,访问更广泛的信息、权威来源以及图像和视频的链接,并对用户查询提供更准确、更相关的响应。 OpenAI在社交媒体X上宣布,ChatGPT用户现在可以浏览互联网以访问最新信息。名为“使用必应浏览”的功能适用于“Plus”和“企业”付费用户。OpenAI计划稍后将其提供给所有其他用户。浏览功能还将允许网站控制ChatGPT如何与它们进行交互。此前,生成式 AI (GenAI) 模型使用截至 2021 年 9月的数据进行训练。新的更新将允许ChatGPT超越截止日期,以提供网络上可用的最新信息。图片来源OpenAI官方博客为什么联网功能如此重要?通过浏览网页的能力,ChatGPT 现在可以提供互联网上可用的最新信息,访问更广泛的信息、权威来源以及图像和视频的链接,并对用户查询提供更准确、更相关的响应。通过集成浏览功能,Microsoft支持的OpenAI正在增强ChatGPT的功能。流行的聊天机器人现在可以执行更广泛的任务,例如预订航班、预订或在线订购产品。这家初创公司本周早些时候宣布了一项重大升级,通过语音对话和图像提高ChatGPT的交互性,并将其与亚马逊的Alexa和苹果的Siri等流行的AI助手靠拢。ChatGPT和其他类似系统现在将与搜索引擎和新闻媒体网站竞争当前的问题和查询。这些发展正值OpenAI和其他GenAI聊天机器人在美国联邦法院面临来自著名作家和知名媒体的多起诉讼,指控侵犯版权。图片由VRGC研究院原创设计我们相信,联网后的ChatGPT又提升了一步,用户可以获得最新信息和新闻,改变了以往仅能提供至2021年数据的局限,但也引发了信息准确性和误导风险的担忧。此外,实时网上搜索功能使ChatGPT成为了获取最新信息的一个新选择,尽管可能会面临一些安全和伦理问题,例如可能传播有害或非法内容,以及未经许可访问受版权保护的内容。 今后我将带来更多有价值的观点,关注我,一起学习,一起成长!发布于 2023-10-02 13:27赞同 1添加评论分享收藏喜欢
ChatGPT 一周三次重大升级,“联网”功能已重新启用_腾讯新闻
ChatGPT 一周三次重大升级,“联网”功能已重新启用_腾讯新闻
ChatGPT 一周三次重大升级,“联网”功能已重新启用
图片来源:由无界 AI 生成
ChatGPT又又升级了?
OpenAI 今天宣布 ChatGPT 已经可以重新浏览互联网的最新信息了。此前,ChatGPT 的数据信息更新截止日期为 2021 年 9月,现在已经没有这个限制了。
ChatGPT 以及 GPT-4 的训练数据截止于 2021 年,长达两年的时间差导致 ChatGPT 生成的结果有时已经不再适用,也被很多批评者认为 ChatGPT 无法用于研究目的。
ChatGPT 现在已经重新联网,为您提供最新的权威信息,并且提供直接来源链接,不再局限于2021年9月之前的数据。要启用该功能,需要在 GPT-4 下面的选择器中选择“使用 Bing 浏览(Browse with Bing)”。目前“联网”功能仅针对 ChatGPT Plus 和企业版用户开放,但 OpenAI 表示很快会扩展到所有用户。
ChatGPT此前曾测试这一功能,但之后被暂停,据传是因为借助与Browse with Bing 功能,使得用户可以绕过某些网站的付费机制,从而免费阅读网页的付费内容(华尔街日报、经济学人等),而这可能会让 OpenAI 惹上大麻烦(吃官司),毕竟损害了内容付费网站的利益。
但现在,这个问题似乎已经解决,OpenAI表示,自从五月份最初推出网络浏览功能以来,我们收到了有用的反馈。 这次升级更新包括关注 robots.txt 和识别用户代理,以便网站可以控制 ChatGPT 与其交互的方式。
ChatGPT一周三次重大升级,OpenAI 让竞争对手措手不及
“联网”功能的重新启用已经是 OpenAI 近 1 周以来进行的第三次重大 ChatGPT 升级。
9月 21 日,OpenAI 宣布将推出 ChatGPT 原生的文生图大模型 DALL·E 3,让 ChatGPT 拥有强大的绘画能力(预计 10 月份正式上线)。 DALL·E 3 是 OpenAI 推出的最新版图像生成模型,与前代相比,进行了大量升级,并且首次集成到 ChatGPT。其生图效果十分惊艳,甚至被认为某些方面超越了头部 AI 绘画工具 Midjourney。这也促使 Midjourney 迅速进行回应,Midjourney CEO David Holz 透露称,MJ V6 版本将在今年发布,并且 v5 到 v6 的飞跃将大于 v4 到 v5。
9月 25 日,OpenAI 又宣布为 ChatGPT 增加新的语音和图像能力,提供一种新的、更直观的界面,允许进行语音对话或向ChatGPT 展示您正在谈论的内容。ChatGPT 将集齐“看、听、说”三大能力。
而今天,ChatGPT 终于再次“联网”。
连续三次重大升级,ChatGPT 的能力已经获得大幅提升。这三大升级中,目前只有“联网”功能被明确表示未来会提供给所有用户,包括免费版。而至于 DALL·E 3 和语音能力都是针对 Plus 和企业版用户推出。
这些新的能力确实足够强大,更多的用户可能会愿意付费,预计 OpenAI 距离年收入 10 亿美元的目标又近了一步。
ChatGPT 一周三次重大升级,“联网”功能已重新启用_腾讯新闻
ChatGPT 一周三次重大升级,“联网”功能已重新启用_腾讯新闻
ChatGPT 一周三次重大升级,“联网”功能已重新启用
图片来源:由无界 AI 生成
ChatGPT又又升级了?
OpenAI 今天宣布 ChatGPT 已经可以重新浏览互联网的最新信息了。此前,ChatGPT 的数据信息更新截止日期为 2021 年 9月,现在已经没有这个限制了。
ChatGPT 以及 GPT-4 的训练数据截止于 2021 年,长达两年的时间差导致 ChatGPT 生成的结果有时已经不再适用,也被很多批评者认为 ChatGPT 无法用于研究目的。
ChatGPT 现在已经重新联网,为您提供最新的权威信息,并且提供直接来源链接,不再局限于2021年9月之前的数据。要启用该功能,需要在 GPT-4 下面的选择器中选择“使用 Bing 浏览(Browse with Bing)”。目前“联网”功能仅针对 ChatGPT Plus 和企业版用户开放,但 OpenAI 表示很快会扩展到所有用户。
ChatGPT此前曾测试这一功能,但之后被暂停,据传是因为借助与Browse with Bing 功能,使得用户可以绕过某些网站的付费机制,从而免费阅读网页的付费内容(华尔街日报、经济学人等),而这可能会让 OpenAI 惹上大麻烦(吃官司),毕竟损害了内容付费网站的利益。
但现在,这个问题似乎已经解决,OpenAI表示,自从五月份最初推出网络浏览功能以来,我们收到了有用的反馈。 这次升级更新包括关注 robots.txt 和识别用户代理,以便网站可以控制 ChatGPT 与其交互的方式。
ChatGPT一周三次重大升级,OpenAI 让竞争对手措手不及
“联网”功能的重新启用已经是 OpenAI 近 1 周以来进行的第三次重大 ChatGPT 升级。
9月 21 日,OpenAI 宣布将推出 ChatGPT 原生的文生图大模型 DALL·E 3,让 ChatGPT 拥有强大的绘画能力(预计 10 月份正式上线)。 DALL·E 3 是 OpenAI 推出的最新版图像生成模型,与前代相比,进行了大量升级,并且首次集成到 ChatGPT。其生图效果十分惊艳,甚至被认为某些方面超越了头部 AI 绘画工具 Midjourney。这也促使 Midjourney 迅速进行回应,Midjourney CEO David Holz 透露称,MJ V6 版本将在今年发布,并且 v5 到 v6 的飞跃将大于 v4 到 v5。
9月 25 日,OpenAI 又宣布为 ChatGPT 增加新的语音和图像能力,提供一种新的、更直观的界面,允许进行语音对话或向ChatGPT 展示您正在谈论的内容。ChatGPT 将集齐“看、听、说”三大能力。
而今天,ChatGPT 终于再次“联网”。
连续三次重大升级,ChatGPT 的能力已经获得大幅提升。这三大升级中,目前只有“联网”功能被明确表示未来会提供给所有用户,包括免费版。而至于 DALL·E 3 和语音能力都是针对 Plus 和企业版用户推出。
这些新的能力确实足够强大,更多的用户可能会愿意付费,预计 OpenAI 距离年收入 10 亿美元的目标又近了一步。
ChatGPT凌晨重磅更新!GPT-3.5/4双升级:上下文飙升4倍,用API自己造插件_腾讯新闻
ChatGPT凌晨重磅更新!GPT-3.5/4双升级:上下文飙升4倍,用API自己造插件_腾讯新闻
ChatGPT凌晨重磅更新!GPT-3.5/4双升级:上下文飙升4倍,用API自己造插件
新智元报道
编辑:拉燕 好困
【新智元导读】ChatGPT凌晨重磅更新!新增函数调用,4倍上下文长度,还更便宜了。
ChatGPT突然更新!
今天凌晨,OpenAI在官网上发布了所有更新细节,包含以下这几个方面:
在Chat Completions API中增加了新的函数调用能力
更新了GPT-4和GPT-3.5-Turbo版本,可操控性更强
为GPT-3.5-Turbo增加了16k的上下文长度(此前是4k)
嵌入模型成本降低75%
GPT-3.5-Turbo的输入token成本降低25%
公布了GPT-3.5-Turbo-0301和GPT-4-0314模型的淘汰时间表
其中备受关注的应该就是新的函数调用能力,GPT-4和GPT-3.5-Turbo两个模型的升级,以及各种降成本。
对此,推特网友「宝玉」表示,OpenAI这次更新的函数调用功能,本质上是让API直接支持了Agent或者Plugin。
函数调用
现在,开发者现在可以向GPT-4-0613和GPT-3.5-turbo-0613描述函数,并让模型智能地选择输出包含调用这些函数的参数的JSON对象。
这是一种更可靠地将GPT的功能与外部工具和API相连的新方法。
这些模型已经过微调,既能检测到何时需要调用函数(取决于用户输入的内容),又能用符合函数签名的JSON来进行响应。
函数调用允许开发者更可靠地从模型中获得结构化的数据。
比如,开发者可以创建一个聊天机器人,通过调用外部工具(例如,ChatGPT插件)来回答问题。
具体来说,可以将诸如「给Anya发邮件,看她下周五是否想喝咖啡」这样的查询转换为send_email(to: string, body: string)这样的函数调用。
或者将「波士顿的天气如何?」转换为get_current_weather(location: string, unit: 'celsius' | 'fahrenheit')。
此外,开发者还能将自然语言转换为API调用或者数据库查询。
比如,将「谁是我这个月的十大客户?」转换为内部API调用,即为:get_customers_by_revenue(start_date: string, end_date: string, limit: int)。
又或者把「Acme, Inc.上个月有多少订单?」转换成SQL查询,即为:sql_query(query: string)。
此外,还允许开发者从文本中提取结构化数据。
只需定义一个名为extract_people_data(people: []的函数,就能提取维基百科文章中提到的所有人物。
以前用户需要在Prompt里加一堆描述才能支持Agent,而现在就简单多了,只要在API请求的时候,传入一个functions参数即可。
functions参数实际上就类似于用户要指定的Agent。
注意,这里可以是不止一个function,function是一个对象,还可以加上名称(name)、描述(description)、参数(parameters)等等。
然后,返回的结果就包含了如下结构化的内容:
function_call:调用的函数名,和用户传入的函数名称一致
arguments:JSON格式的参数值,包含了用户调用函数需要的参数名称和值。
比如说:
"function_call": { "name": "get_current_weather", "arguments": "{ \"location\": \"Boston, MA\"}" }
国外网友表示,function最大的价值就是解决了GPT返回数据结构化的问题,不再需要用户输入复杂的prompt。
第一步:OpenAI API
第二步:第三方API
第三步:OpenAI API
模型升级
GPT-4
GPT-4-0613的主要更新就是上面提到的全新函数调用功能。
而GPT-4-32k-0613的更新,除了包含GPT-4-0613的所有更新内容以外,还新增加了更长的上下文长度,从而能更好地理解更长篇幅的文本。
OpenAI表示,未来几周内,将会有更多目前在等待名单上的人可以开始使用GPT-4.
GPT-3.5 Turbo
GPT-3.5-turbo-0613的更新中具备与GPT-4相同的函数调用功能,并通过系统信息提供了更高的可控性。
这两个特性将使开发者能够更有效地引导GPT模型生成的回复。
GPT-3.5-turbo-16k相较于GPT-3.5-turbo拥有4倍的上下文长度,但成本是前者的两倍。
每1000个token输入的费用为0.003美元,每1000个输出token的费用为0.004美元。
16k的上下文长度意味着该模型现在能够在单次对话中支持约20页长度的文本。
同时,OpenAI表示,新模型将于6.27正式上线,而旧模型将于今年9.13后无法再次访问。
价格更低
最后,OpenAI发布的价格降低的新消息也让不少用户为之一动。
text-embedding-ada-002是OpenAI最受欢迎的嵌入模型。今天我们将成本降低了75%,每1,000个token费用为0.0001美元。
而作为最受欢迎的聊天模型——GPT-3.5-turbo,其输入的token费用降低了25%。
开发者现在能以0.0015美元/1000个输入token的价格使用该模型,每1000个输出token费用为0.002美元,相当于每美元大约能使用700页。
GPT-3.5-turbo-16k的定价为0.003美元/每1000个输入token,而每1000个输出token费用为0.004美元。
参考资料:
https://openai.com/blog/function-calling-and-other-api-updates
ChatGPT爆火,国内研发进展如何?-新华网
ChatGPT爆火,国内研发进展如何?-新华网
新华网 > > 正文
2023 02/ 10 07:30:36
来源:科技日报
ChatGPT爆火,国内研发进展如何?
字体:
小
中
大
分享到:
ChatGPT爆火,国内研发进展如何?
2023-02-10 07:30:36
来源:
科技日报
这段时间,一款名叫ChatGPT的人工智能聊天系统就像平地起春雷,突然刷爆网络。
“从目前普遍的对话感受来看,ChatGPT的最大亮点就在于其优秀的意图识别与语言理解能力,这令人意识到人工智能的交互能力已经实现了跨越式进展。”易观智慧院高级分析师陈晨评价。
有问必答,侃侃应对。这种神奇的人机互动体验,勾起人们绞尽脑汁向ChatGPT提问的热情,并为其带来惊人的用户量:该系统在两个多月前由美国人工智能研究公司OpenAI推出,今年1月便已达到1亿月活跃用户,用户增长速度堪称史无前例。
这款产品大受欢迎,其重要幕后功臣是被业内称为预训练模型的技术。面对ChatGPT的爆火,国内科技机构和企业纷纷“亮剑”。据最新消息,中国版ChatGPT将于下个月与公众见面。
参数规模从几百万狂飙至几千亿
“目前,预训练技术是人工智能研究的重要突破口。”阿里研究院未来技术中心负责人苏中解读,传统的研究方法中,标注成本一直是阻碍人工智能算法推向更大数据集合的障碍,而预训练技术不依赖数据标注,就可以训练出一个大规模深度学习模型。
科技日报记者了解到,由于不需要数据标注,预训练模型往往可以使用更大的数据集,因而可以选择更大的模型规模——这就催生了预训练大模型。
“与以往的人工神经网络相比,预训练大模型最大的不同在于它规模足够大,深度学习网络的层数多、连接多、参数多。”IDEA研究院(粤港澳大湾区数字经济研究院)认知计算与自然语言研究中心讲席科学家张家兴接受记者采访时介绍,2012年前后的深度学习网络只有几百万参数;2018年前后主流的预训练模型达到1亿参数;目前被证明非常有效的大规模预训练模型已有几千亿参数,短短几年时间提升了几千倍。
量变引起质变。苏中分析,在对预训练模型各种不同的技术评测中,算法性能展示了一个规律:数据规模越大、预训练模型参数越多,算法输出精度往往也越高。
除了规模大以外,张家兴谈到,目前的预训练大模型由于采用了新的结构模型,非常适合并行训练。同时,在训练方式上,人工神经网络的预训练任务类似“解题”,比如把一句话的某个词或前半句去掉,让预训练模型利用海量大数据对句子进行恢复,这样训练下去,预训练模型的“解题”能力就会越来越好。而且,在大语言模型的基础上,引入指令学习,可以远超模型微调带来的收益。在此基础上,人类的反馈可以帮助模型更好地理解人类意图和接收信息,人机对话也就越来越流畅。
“ChatGPT在底层数据、核心技术、用户体验等各方面都可以说是里程碑式的人工智能产品。”旷视研究院基础科研负责人张祥雨表示,ChatGPT的核心技术是人工智能语言大模型,其关键是如何让人工智能模型具备逻辑推理能力,以及如何让人工智能学习全互联网的知识。这些ChatGPT基本都做到了,因此在决策和知识环节有了很大的突破。
国内多家科技机构已布局相关领域
据外媒报道,多家国外科技巨头正重金投入预训练模型和人工智能生成内容(AIGC)赛道。记者了解到,国内已有不少科技机构和企业布局相关领域。
张家兴告诉记者,IDEA研究院认知计算与自然语言研究中心在此方向上布局已久,该中心拥有国内最大的开源模型体系——封神榜,已开源的98个模型正在全力支持中国AIGC的发展,探索研发适配各个领域的个性化可定制模型,支持全部自然语言处理(NLP)任务。
“很高兴能在深度学习高速发展的第十年节点上,看到AIGC和ChatGPT的出现,今天所有这些自然语言处理任务正在被统一到ChatGPT模式下,我们也正在整合之前的模型和技术,推出我们的类ChatGPT模型。”张家兴说。
记者从百度获悉,百度已投入开发类似ChatGPT的相关技术,该项目名字确定为文心一言,英文名ERNIE Bot,3月份完成内测后面向公众开放。目前,文心一言在做上线前的冲刺。
“ChatGPT主要涉及自然语言处理相关技术,属于认知智能领域的应用之一,科大讯飞在该方向的技术和应用方面具备长期深厚的积累。”2月8日晚,科大讯飞在投资者互动平台回应称,公司已面向认知智能领域陆续开源了6大类、超过40个通用领域的系列中文预训练语言模型,并于去年12月启动生成式预训练大模型任务攻关,人工智能学习机将成为该项技术率先落地的产品,今年5月将进行产品级发布。
此外,360公司2月7日在投资者互动平台表示,该公司也计划尽快推出类ChatGPT技术的原型版产品。“AIGC技术除了在搜索引擎的应用之外,还可以辅助数字安全能力的提升。”360公司称。(记者 刘园园)(记者操秀英、刘艳对此文亦有贡献)
【纠错】
【责任编辑:赵文涵
】
阅读下一篇:
深度观察
新华全媒头条丨三江源:20年艰辛保护 筑牢“中华水塔”
民生直通车丨服务“春风”助办税缴费减负担增便利
新华全媒+丨古镇杨柳青文旅市场复苏观察
两岸关系丨台湾旅游业者盼望大陆游客早日回流
新华每日电讯丨《狂飙》何以“狂飙”
经参丨奖金牌奖支票奖荣誉 苏南“开春奖企业”奖出了什么?
追光丨这些人工智能深刻影响了体育
全球连线丨中国滑雪少年,飒
开学如何收心?get这些建议
融媒集萃
中国“汽车城”克服疫情冲击抢占发展先机
卫星影像:2022,变局中的世界
2022,敬平凡又不凡的每一天
010030090950000000000000011100001129352532
ChatGPT重磅更新,短短45分钟发布会看OpenAI又向前一步-腾讯云开发者社区-腾讯云
GPT重磅更新,短短45分钟发布会看OpenAI又向前一步-腾讯云开发者社区-腾讯云matinalChatGPT重磅更新,短短45分钟发布会看OpenAI又向前一步关注作者腾讯云开发者社区文档建议反馈控制台首页学习活动专区工具TVP最新优惠活动文章/答案/技术大牛搜索搜索关闭发布登录/注册首页学习活动专区工具TVP最新优惠活动返回腾讯云官网matinal首页学习活动专区工具TVP最新优惠活动返回腾讯云官网社区首页 >专栏 >ChatGPT重磅更新,短短45分钟发布会看OpenAI又向前一步ChatGPT重磅更新,短短45分钟发布会看OpenAI又向前一步matinal关注发布于 2023-11-11 08:33:011.7K0发布于 2023-11-11 08:33:01举报文章被收录于专栏:SAP TechnicalSAP Technical北京时间11月7日,在ChatGPT推出近一年后,OpenAI举行了首届开发者大会。大会上,OpenAI的CEO Sam Altman宣布了GPT-4、ChatGPT的重磅更新并放出了成绩单:ChatGPT的周活用户数达到1亿人,已经有200万开发者正在使用OpenAI的API(应用程序接口),92%的财富500强公司正在使用OpenAI的产品搭建服务。他表示“公司在今年3月发布的GPT-4,至今仍是世界上能力最强的AI大模型”。除了公布这些数据,OpenAI还详细介绍了一系列新功能。对于 AI 行业从业者来说,刚刚可能是一夜未眠。北京时间 11 月 7 日凌晨,美国人工智能公司 OpenAI 的开发者大会正式开启,创始人 Sam Altman 在台上和同事,只用 45 分钟时间,就「轰」出了团队最新的成果 GPT-4 Turbo,后者不仅更快、有更长的上下文、而且更好的控制。同时,OpenAI 下调 API 的价格近 3 倍,降到了 1000 输入/美分,让在场开发者欢呼不已。当然,更重要的是,OpenAI 推出了「GPTs」——让人们能用自然语言构建定制化 GPT,然后,你猜到了——可以把 GPT 上传到即将发布的「GPT Store」!如果说 GPT-4 Turbo 是更好用的「iPhone」,GPT Store 则可能是让 OpenAI成为「苹果」一样的巨头的重要一步。当竞争对手们依然在「AI 炼丹」时,OpenAI 已经开始构建起一个看起来相当宏伟的生态了。GPT-4 Turbo,更快,更省钱发布会一开始,Sam Altman 就宣布了 GPT-4 的一次大升级,推出了 GPT-4 Turbo,同步在 ChatGPT 和 API 版本推出。Sam Altman 表示团队一直在征求开发者的建议,对开发者关注的问题做了六大升级,分别是更长的上下文长度、更强的控制、模型的知识升级、多模态、模型微调定制和更高的速率限制。其中前四条主要关于新模型的性能的提升,而后两点则主要针对企业开发者的痛点。在提升性能的同时,OpenAI 还宣布了 API 价格的下调,可谓「加量不加价」了。Sam Altman 公布 GPT 的六大升级|OpenAI六大升级中,第一,就是上下文长度。OpenAI 原本提供的最长的上下文长度为 32k,而此次,GPT-4 Turbo 直接将上下文长度提升至 128k,一举超过了竞争对手 Anthropic 的 100k 上下文长度。128k 的上下文大概是什么概念?大概约等于 300 页标准大小的书所涵盖的文字量。除了能够容纳更长上下文外,Sam 还表示,新模型还能够在更长的上下文中,保持更连贯和准确。第二,是为开发者提供了几项更强的控制手段,以更好地进行 API和函数调用。首先,新模型提供了一个 JSON Mode,可以保证模型以特定 JSON 方式提供回答,调用 API 时也更加方便。另外,新模型还允许同时调用多个函数,同时引入了 seed parameter,在需要的时候,可以确保模型能够返回固定输出。接下来几周,模型还将增加新功能,让开发者能看到 log probs。第三,则是模型内部和外部知识库的升级。ChatGPT 横空出世大概一年后,GPT 的知识库终于更新到了 2023 年 4 月。Sam Altman 承诺未来还将继续更新其知识库,不使其落伍。「对于 GPT 的知识停留在 2021 年,我们和你们一样,甚至比你们更恼火。」Sam Altman 表示。GPT 内部知识库终于升级到了 2023 年 4 月|OpenAI除了内部知识库的升级,GPT-4 Turbo 也升级了外部知识库的更新方式,现在可以上传外部数据库或文件,来为 GPT-4 Turbo 提供外部知识库的支持。第四,或许是最不让人意外的,多模态。新模型支持了 OpenAI 的视觉模型 DALL·E 3,还支持了新的文本到语音模型——开发者可以从六种预设声音中选择所需的声音。多模态成为 GPT 的内置功能|OpenAIGPT-4 Turbo 现在可以以图生图了。同时,在图像问题上,目前 OpenAI 推出了防止滥用的安全系统。OpenAI 还表示,它将为所有客户提供牵涉到的版权问题的法律费用。在语音系统中,OpenAI 表示,目前的语音模型远超市场上的同类,并宣布了开源语音识别模型 Whisper V3。第五,模型微调与定制。8 月,OpenAI 曾经发布过 GPT-3.5 Turbo 的微调服务。当时,有早期测试表明,经过微调的 GPT-3.5 Turbo 版本在某些任务中甚至可以超越 GPT-4,不过定价相对较高。而此次,Sam 宣布 GPT-3.5 Turbo 16k 的版本目前也可以进行微调的定制了,且价格将比前一代更低。GPT-4 的微调定制也在申请中了。同时,OpenAI 也开始接受单个企业的模型定制了。「包括修改模型训练过程的每一步,进行额外的特定领域的预训练,针对特定领域的后训练等等。」Sam 表示。同时他表示,OpenAI 没有办法做很多这样的模型定制,而且价格不会便宜。第六,也是最后一点,是更高的速率限制。GPT-4 用户,发布会后马上可以享受到每分钟的速率限制翻倍的体验。同时,如果不够满意,还可以进一步通过 API 账户,申请进一步提升速率限制。六大升级以外,是 API 体系的全线降价。此次新发布的 GPT-4 Turbo,输入方面比 GPT-4 降价 3 倍,而输出方面降价 2 倍,OpenAI 表示,总体使用上降价大概 2.75 倍。新模型的价格是每千输入 token 1 美分,而每千输出 token 3 美分。降价的 API 迎来了现场开发者的欢呼。Sam 还表示,在优先解决价格之后,下一个重点解决的问题将是速度问题,很快,开发者们就会发现 GPT-4 Turbo 将变快很多。GPT Store 来了!早在 5 月,OpenAI 就开放了插件系统,首批上线了 70 个大模型相关的应用,领域包括猜词、翻译、查找股票数据等等。GPT Store 风格都非常「App Store」|OpenAI当时,该功能被寄予厚望,不少媒体将其类比于苹果的 App Store 时刻,认为它将改变大模型应用的生态。不过虽然后期插件不断增加,但插件系统却远远没有达到苹果应用商店的影响力。而此次发布会上,OpenAI 则重新梳理了其应用商店的体系,并将其扩大到了一个全新的范畴——人人都能通过自然语言创建基于自己的知识库的 AIAgent,加入 OpenAI 的应用商店,并获得分成。OpenAI 此次发布的应用,不再称为插件,而选择了一个相对比较奇怪的名字,GPT。而整体的应用商店,名字叫做 GPT Store,将在本月后期正式推出。按照 Sam Altman 的说法,每一个 GPT 像是 ChatGPT 的一个为了特殊目的而做出的定制版本。OpenAI 的工作人员尝试让 ChatGPT 管理自己的生活|OpenAI为了突出新的 GPT 应用,ChatGPT 整个页面将有小幅度的调整。左上角除了 ChatGPT,下面的应用,就是此次推出的 GPT 应用。在演示中,可以看到,较为复杂的插件——比如曾经在 OpenAI 上线插件系统时第一批进入插件系统的 Zapier,仍然存在于目前的应用商店中,而且仍然可能是未来应用商店里很重要的一批应用。演示中,OpenAI 的 Jessica Shay,就利用了 Zapier 链接了自己的日历和手机短信,通过与 Zapier 这个应用聊天的方式,直接安排了自己的日程,并通知了同事。不过,Zapier 的功能虽然强大,这样的应用并不是此次发布的重点。据 Glassdoor 数据显示,Zapier 公司拥有 500-1000 名员工,而财富网站报道,Zapier 估值已达 50 亿美金。指望这样的应用来填充 OpenAI 的羽翼未丰的应用商店,使其成为一个丰富的生态显然不太现实。因此,此次发布中,OpenAI 推出一个重磅发布:让不懂代码的人也能轻松定义一个 GPT。Sam Altman 为此进行了现场展示。「在 YC 工作过很多年,我总是遇到开发者向我咨询商业意见。」Sam Altman 讲到,「我一直想,如果有一天有个机器人能帮我回答这些问题就好了。」接着,Sam Altman 打开了 GPT Builder,先打上一段对这个 GPT 的定义,类似于帮助初创公司的创始人思考他们的业务创意并获得建议,接着,在对话中,GPT Builder 自己生成了这个 GPT 的名字、图标,并通过与 Sam 对话的形式,询问 Sam 是否要对对生成的名字和图标等进行调整。Sam Altman 正在创建一个「创业导师 GPT」|OpenAI接下来,GPT Builder 主动向他询问这个应用该如何与用户交互,Sam 表示可以从我的过往演讲中选择合适且有建设性的回答,然后上传了一段自己过往的演讲。即使加上讲解,整个应用也在三分钟内就完成了。访问这个 GPT 的人,会收到 GPT 自动生成的对话开头,可以与这个 GPT 对话咨询创业相关的内容,而得到的,将是一个类似于 Sam Altman 本人的回答。Sam 表示,创建者还可以进一步为 GPT 增加 action(动作)。创建一个这样的 GPT,本质上,用户能够定制的功能其实并不多:指令(预设的 prompt),外设的知识库和动作。但是,能把三者丝滑地结合起来,让一个不懂代码的人也能更简单地创建应用,确实是此次 Open AI的创举。GPT 发布后,应用可以选择私有,专属企业拥有和公开所有三种方式。而 Open AI 表示,将为受欢迎的应用提供利润分享。很明显,OpenAI 在这里的发布,并没有希望普通用户能够通过自然语言创建出多么复杂的应用,其中的想象空间,更重要的在于个人和企业能够将自己的知识库上传到 OpenAI,一键构建专属应用。比如作为一个拥有货运价格表的代理,可以将文件上传到 OpenAI 后,一键部署出自己的询价助理,这样简洁丝滑的应用部署,在之前还并不存在。而如果发布最终能够得到用户认可的话,类似的应用也将能够填充 OpenAI 的应用商店,使其成为各种信息的宝库。零代码创建 AI Agent如果你觉得上述的 0 代码的 GPT 很酷,此次 OpenAI 也推出了让开发者更容易使用 OpenAI API 的开发方式——Assistants API。Sam Altman 表示,市面上基于 API 构建 agent 的体验很棒。比如,Shopify 的 Sidekick 可以让用户在平台上采取行动,Discord 的 Clyde 可以让管理员帮忙创建自定义人物,Snap 的 My AI 是一个自定义聊天机器人,可以添加到群聊中并提出建议。但问题是,这些 agent 很难建立。有时需要几个月的时间,由数十名工程师组成的团队,处理很多事情才能使这种定制助手体验。这些事情包括状态管理(state management)、提示和上下文管理(prompt and context management)、扩展功能(extend capabilities)和检索(retrievel)。在 OpenAI 开发者大会上,这些事情被 API 化——OpenAI 推出 Assistants API,让开发人员在他们的应用程序中构建「助手」。使用 Assistants API,OpenAI 客户可以构建一个具有特定指令、利用外部知识并可以调用 OpenAI生成式 AI模型和工具来执行任务的「助手」。像这样的案例范围包含,从基于自然语言的数据分析应用程序到编码助手,甚至是人工智能驱动的假期规划器。Assistants API封装的能力包括: 持久的线程(persistent threads),人们不必弄清楚如何处理长的对话历史;内置的检索(Retrieval),利用来自 OpenAI 模型外部的知识(例如公司员工提供的产品信息或文档)来增强开发人员创建的助手;提供新的 Stateful API 管理上下文;
内置的代码解释器(Code Interpreter),可在沙盒执行环境中编写和运行 Python 代码。这一功能于 3 月份针对 ChatGPT 推出,可以生成图形和图表并处理文件,让使用 Assistants API 创建的助手迭代运行代码来解决代码和数学问题;
改进的函数调用,使助手能够调用开发人员定义的编程函数并将响应合并到他们的消息中。
Assistants API 处于测试阶段,从今天开始可供所有开发人员使用。开发者可以前往Assistants Playground来尝试 Assistants API 测试版,而无需编写任何代码。本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。 原始发表:2023-11-10,如有侵权请联系 cloudcommunity@tencent.com 删除前往查看chatgptopenai插件开发者模型本文分享自 作者个人站点/博客 前往查看如有侵权,请联系 cloudcommunity@tencent.com 删除。本文参与 腾讯云自媒体分享计划 ,欢迎热爱写作的你一起参与!chatgptopenai插件开发者模型评论登录后参与评论0 条评论热度最新登录 后参与评论推荐阅读LV.关注文章0获赞0相关产品与服务短信腾讯云短信(Short Message Service,SMS)可为广大企业级用户提供稳定可靠,安全合规的短信触达服务。用户可快速接入,调用 API / SDK 或者通过控制台即可发送,支持发送验证码、通知类短信和营销短信。国内验证短信秒级触达,99%到达率;国际/港澳台短信覆盖全球200+国家/地区,全球多服务站点,稳定可靠。免费体验产品介绍产品文档国内短信特惠0.032元/条起,企业短信特惠0.037元/条起,更有新老同享套餐包0.038元/条起
领券社区专栏文章阅读清单互动问答技术沙龙技术视频团队主页腾讯云TI平台活动自媒体分享计划邀请作者入驻自荐上首页技术竞赛资源技术周刊社区标签开发者手册开发者实验室关于社区规范免责声明联系我们友情链接腾讯云开发者扫码关注腾讯云开发者领取腾讯云代金券热门产品域名注册云服务器区块链服务消息队列网络加速云数据库域名解析云存储视频直播热门推荐人脸识别腾讯会议企业云CDN加速视频通话图像分析MySQL 数据库SSL 证书语音识别更多推荐数据安全负载均衡短信文字识别云点播商标注册小程序开发网站监控数据迁移Copyright © 2013 - 2024 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有 深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档Copyright © 2013 - 2024 Tencent Cloud.All Rights Reserved. 腾讯云 版权所有登录 后参与评论00
Open AI首次听证会:ChatGPT拐点已现,未来发展依然坎坷_澎湃号·湃客_澎湃新闻-The Paper
AI首次听证会:ChatGPT拐点已现,未来发展依然坎坷_澎湃号·湃客_澎湃新闻-The Paper下载客户端登录无障碍+1Open AI首次听证会:ChatGPT拐点已现,未来发展依然坎坷2023-05-19 11:40来源:澎湃新闻·澎湃号·湃客字号撰文 | 曹双涛编辑 | 杨博丞题图 | IC Photo自2022年11月Chat GPT上线后,短短2个月的时间内,月活跃用户就已突破1亿,成为史上用户增长速度最快的消费级应用程序。图源:西南证券目前Chat GPT也已更新至4.0版本。新版GPT-4在诸多能力上也进行了优化,以文字生产领域为例,GPT-4能实现作诗、写邮件、写广告、剧本和小说。采用AIGC技术所撰写的高考作文,在不到1分钟的时间,完成了40多篇文章,获得专家打分48分的成绩,击败了75%的考生。在此背景下,国内大厂纷纷跟进推出属于自身的AI大模型。比如说,百度的“文心一言大模型”,腾讯的“混元大模型”,阿里的“通义大模型”,华为的“盘古大模型”等等。而在二级市场上,Chat GPT的火爆也直接带火了和AI相关的概念股。以人脸识别、大数据、智能交互技术、产品及服务提供商汉王科技为例,按照汉王科技对外公布的业绩预告来看,公司在2022年归属于上市公司股东的净利润为:-9800万元至-14000万元。长期的亏损,让汉王科技在1月30日以前的市值仅有40.85亿元左右。但进入到今年2月份以后,汉王科技的股价一路上涨,甚至在今年3月时,股价曾达到30.66元/股的最高点。这一股价若是和今年1月份时期的15.34元/股相比,涨幅比例接近1倍。图源:雪球但硬币的另一面却是关于Chat GPT的争议声音越来越大。3月30日,人工智能和数字政策中心向美国联邦贸易委员会投诉,试图阻止向消费者发布强大的AI系统。次日,意大利隐私监管机构宣布境内暂时禁用Chat GPT。4月2日,在三星引入Chat GPT不到20天的时间内,已先后出现三次泄密事件等等。针对以上问题,在美国当地时间5月16日召开的Open AI首次听证会上,围绕着外界所关注的由AI所产生的版权侵害,虚假内容、失业问题,数据安全等问题也展开了相关讨论。本次接受质询的对象包括Open AI CEO Sam Altman,IBM副总裁兼首席安全官Christina Montgomery,纽约大学教授Gary Marcus。而本次听证会上的一些核心内容,也让我们提前感知到未来Chat GPT行业发生的一些变化。图源:Open AI听证会一、Chat GPT发展依然坎坷针对3月29日,科学界联名呼吁:所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月的联名信。作为联名信签署人之一的Gary Marcus在会上解释道,签署联名信并不是要求暂停AI研发,而是希望在具备规范、安全的AI管理措施之前,暂停部署比GPT-4更大的AI模型。若现阶段将这些具备超级功能的AI,全部交给普通人使用,这未免太过于冒进了。对此,Sam Altman解释道,未来6个月内Open AI暂无推出类似于GPT-5的计划。因为现阶段Open AI对部署更高版本的Chat GPT仍存在诸多顾虑。但与此同时,Sam Altman也提出了一个灵魂问题:若我们暂停6个月的AI研发,很有可能就会与时代脱节,6个月之后我们要怎么办呢?还要再停6个月吗?如Sam Altman所言,若超级AI大模型需不断保持自身优势的话,则需要对模型进行不断反复的训练,但在训练过程中也产生了诸多问题。比如说,高成本和商业化问题。以Chat GPT为例,2018年Open AI在训练GPT-1时,所用到的参数数量和数据训练量分别为1.17亿和5GB。但在2020年训练GPT-3时,以上两项数字则分别增长到1750亿和45 TB,GPT-4的训练参数量更是高达1.6万亿。另据Open Al发布的相关数据显示,训练13亿参数的GPT-3 XL模型训练一次消耗的算力约为27.5 PF-days,训练1750亿参数的完整GPT-3模型则会消耗算力3640 PF-days(以一万亿次每秒速度计算,需要3640天完成)。图源:Open Al庞大的数据量以及算力决定了搭建AI模型为典型的重资金产业。以GPT-3模型消耗的算力3640 PF-days来看,相关证券机构测算,保守估计前期成本至少投入在200多亿元。并且Chat GPT在前期访问阶段初始投入近十亿美元,单日电费数万美元。训练阶段,单次训练约为百万至千万美元。然而,在高成本的背后,目前关于整个Chat GPT不管是在TOC端还是TOB端的商业化仍不清晰。以TOB端为例,Chat GPT若想要完全打开TOB端市场,也面临着诸多现实问题。一方面,如何打消TOB端的诸多顾虑,进而让TOB敢用Chat GPT。比如说,目前TOB端普遍担心因使用Chat GPT而产生数据泄露风险,进而对企业业务产生诸多不利影响。但正如美国NIST(国家标准与技术研究院)发布了《AI风险管理框架1.0》所提到的那样,AI模型的优化可解释性和隐私增强性之间会存在矛盾;或者在数据较稀疏的情况下,隐私增强技术可能导致有效性降低。过度关注某一方面特性,例如:高度安全但不公平的系统、有效但不透明和不可解释的系统以及不准确但安全、隐私增强和透明的系统都是不可取的。另一方面,对标围绕TOB端的SaaS产业的发展来看,TOB端产品只有给企业带来真正“降本增效”的价值,企业才愿意付费。但由于TOB端行业的分散性、差异性、多而乱的特点,行业很难形成规模效应。目前国内SaaS产业所走的“以低价换取市场份额”的路线,也决定了当前国内和SaaS相关的企业,除具有先发优势的阿里云实现盈利,绝大多数企业仍以亏损为主。那么未来Chat GPT在为TOB端服务时,其价格到底要如何制定呢?是走SaaS行业以价换量的路线,或是将价格定得很高,只服务小部分企业呢?但不管走哪个路线,均决定了Chat GPT在TOB端想要实现盈利,并非易事。另外考虑到当前全球经济进入到新一轮下行周期,未来诸多行业业绩承压已是不争的事实。因此,不管是投资机构,或是大厂又是否有足够的现金流和足够的耐心,来真正探索出各类“超级AI大模型”的盈利,这里仍值得商榷。二、生成式AI仍面临外部多重压力若成本和收益问题超级AI大模型内部需面临的问题,来自外部的种种质疑也决定了生成式AI后续的发展并不明朗。其一,如何对AI公司进行监管。Sam Altman提出的建议如下:对AI厂商提供许可证,并吊销不符合政府标准的厂商的许可证。为AI大模型创建一套安全标准,包括评估其风险,大模型必须通过一些安全测试;指派第三方专家独立审核AI产品的各方面指标,支持创立一个为AI制定相关标准的国际组织,由美国领导。同时,Sam Altman和Gary Marcus均呼吁成立专门的TOG机构,负责对AI的监管。事实上,Sam Altman 和 Gary Marcus所提出的这些建议,也的确符合未来超级AI大模型的需要。比如说,对标国内的网约车拍照和金融支付拍照的发放来看,政府监管加强后,能让行业从此前的野蛮生长阶段逐渐回归到理性增长阶段。但仍需要指出的是,因全球不同国家的文化、政治差异性较大,又叠加自2022年全球地缘冲突的不断升级和加剧,一套全球可行的AI式标准制定未来估计需要很长的时间才能制定。在尚无清晰的标准下,也决定了未来超级AI大模型的出海业务,将面临着层层压力。其二,如何解决反垄断问题。在听证会上,参议员Cory Booke提出了一个问题:Open AI由微软支持,Anthropic则由谷歌支持。那么,未来随着这些公司的规模越来越大,其必然也会对人们的生活影响越来越大,并有可能在商业上实现垄断。图源:Open AI听证会对此,Sam Altman则解释道AI大模型的研发相对困难,只有少数企业能够研发出AI大模型。这并不会造成垄断,反而会在一定程度上降低监管难度。但坦白来说,Sam Altman的解释并不成立。一方面,如上文所述,基于研发AI大模型对企业的资金、技术均要求极高,目前AI大模型也的确被掌握在大厂手中。但另一方面,从国内多个行业的经验来看,当大厂完全主导后,行业必然会出现垄断现象,比如网约车行业、在线货运平台、外卖行业等等。而随着各国政府对本国反垄断法律法规政策制定的愈发完善,不排除后续各国政府对由超级AI大模型所产生的垄断问题,监管只会更加严格。其三,针对外界所关注的由Open AI所产生的版权以及版权付费问题。Sam Altman则表示,未来Open AI会拿出相关政策保护地方新闻业的发展。但对于内容创作者版权权益的问题,Sam Altman并没有给出明确的回复。事实上,对于Sam Altman的不回复虽能理解,毕竟Chat GPT在内容创作上需海量的内容作为支撑,而从国内内容平台给到创作者的收益来看,Open AI若是真正为创作者付费的话,这必然会加重Chat GPT的成本投入。但坦白来说,Chat GPT对创作者内容的随意抓取,并且不付费的方式,无异于杀鸡取卵。一旦后续内容创作者进行联合,全面抵制Open AI的这种做法,未来GPT更高版本是否能继续保持优势,仍有待观察。而从现阶段来看这种情况已经出现,比如说,去年柏林两位艺术家搭建了一个名为“我正在被用来训练吗”的网站,艺术家可以检索自己的作品是否进入了AI训练数据库。但Chat GPT所面临的问题并非个案,而是国内外AI大模型公司都必须要思考的问题。三、AI大模型是否会引发大规模失业?在听证会上,Gary Marcus指出人们不应该小看AI对就业带来的影响。事实上,Gary Marcus的担忧并非空穴来风。此前IBM曾宣布:暂缓可以被AI取代的岗位的招聘,约7800人将被永久淘汰。图源:推特微软也宣布将于6月底进行裁员,裁员对象主要为记者和编辑,并将在未来加大力度使用AI技术取代人类新闻编辑。“新上岗”的AI算法将会代替人类编辑选取可报道的新闻事件、改写新闻标题、寻找文章配图等工作。但Sam Altman却认为,目前GPT-4仍能被人类很好的所控制和使用,它会让一些工作自动化,甚至被替代掉。但人类利用AI大模型可以拥有更多能力、更多时间追求自己喜欢的事物,这将创造出更多工作机会。IBM的Christina和Sam Altman有着一致的观点。她认为,AI大模型“将会改变每一项工作”,如今的工作重点应该是做好新老工作的过渡。到2030年,IBM将培训3000万个人掌握当今社会所需的技能。事实上,Sam Altman和Christina说法并非没有道理。现阶段,AIGC的确可以创作海量的内容,但AIGC毕竟只是工具,缺乏人类的情感和思考能力。而人类的情感和思考能力,在诸多工作岗位中发挥着重要作用。以内容创作为例,作家余华曾指出:从我们目前对那个GPT的理解就他的能力,如果他要写小说的话,他大概能写出中庸的小说。但他不会写出充满了个性的小说,因为他是大量的那种文本,他可能把小说写得很完美,但是其实是很平庸。图源:网图在以电商行业的客服岗位为例,从事多年电商客服工作的李洋洋告诉我们,在处理客户的售后过程中,最为核心的地方在于需根据和客户沟通过程中的语气、文字,推测出当前客户的情感,并做到有针对性地处理客户的问题。若单纯使用AI大模型回复客户售后问题,这不但无法处理好客户的问题,反而还会降低售后质量。而且拉长维度来看,若未来各类AI大模型具备和人类一样的情感,这必然会引发世界范围内的恐慌,不排除AI大模型会出现被关停的命运。但当AI大模型之充当辅助性工具后,也面临着一个问题。即它的能力和价格是否匹配,ToC端又是否愿意付费呢?结语:事实上,任何新兴事物从成熟到发展,从来都是不走直线走曲线。但相较于其他行业而言,AI大模型所牵扯到的失业问题、各种法律风险、垄断问题、成本和收益等等,均注定了国内外任何一家AI大模型厂商在未来AI大模型商业化的探索之路上都难言轻松,对于后续AI大模型的发展是否能达到市场预期,仍需要时间来观察。 特别声明本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。+1收藏我要举报#ChatGPT#OpenAI查看更多查看更多开始答题扫码下载澎湃新闻客户端Android版iPhone版iPad版关于澎湃加入澎湃联系我们广告合作法律声明隐私政策澎湃矩阵澎湃新闻微博澎湃新闻公众号澎湃新闻抖音号IP SHANGHAISIXTH TONE新闻报料报料热线: 021-962866报料邮箱: news@thepaper.cn沪ICP备14003370号沪公网安备31010602000299号互联网新闻信息服务许可证:31120170006增值电信业务经营许可证:沪B2-2017116© 2014-2024 上海东方报业有限公nytimes.com
mes.comPlease enable JS and disable any ad blockerChatGPT凌晨重磅更新!GPT-3.5/4双升级:上下文飙升4倍,用API自己造插件_腾讯新闻
ChatGPT凌晨重磅更新!GPT-3.5/4双升级:上下文飙升4倍,用API自己造插件_腾讯新闻
ChatGPT凌晨重磅更新!GPT-3.5/4双升级:上下文飙升4倍,用API自己造插件
新智元报道
编辑:拉燕 好困
【新智元导读】ChatGPT凌晨重磅更新!新增函数调用,4倍上下文长度,还更便宜了。
ChatGPT突然更新!
今天凌晨,OpenAI在官网上发布了所有更新细节,包含以下这几个方面:
在Chat Completions API中增加了新的函数调用能力
更新了GPT-4和GPT-3.5-Turbo版本,可操控性更强
为GPT-3.5-Turbo增加了16k的上下文长度(此前是4k)
嵌入模型成本降低75%
GPT-3.5-Turbo的输入token成本降低25%
公布了GPT-3.5-Turbo-0301和GPT-4-0314模型的淘汰时间表
其中备受关注的应该就是新的函数调用能力,GPT-4和GPT-3.5-Turbo两个模型的升级,以及各种降成本。
对此,推特网友「宝玉」表示,OpenAI这次更新的函数调用功能,本质上是让API直接支持了Agent或者Plugin。
函数调用
现在,开发者现在可以向GPT-4-0613和GPT-3.5-turbo-0613描述函数,并让模型智能地选择输出包含调用这些函数的参数的JSON对象。
这是一种更可靠地将GPT的功能与外部工具和API相连的新方法。
这些模型已经过微调,既能检测到何时需要调用函数(取决于用户输入的内容),又能用符合函数签名的JSON来进行响应。
函数调用允许开发者更可靠地从模型中获得结构化的数据。
比如,开发者可以创建一个聊天机器人,通过调用外部工具(例如,ChatGPT插件)来回答问题。
具体来说,可以将诸如「给Anya发邮件,看她下周五是否想喝咖啡」这样的查询转换为send_email(to: string, body: string)这样的函数调用。
或者将「波士顿的天气如何?」转换为get_current_weather(location: string, unit: 'celsius' | 'fahrenheit')。
此外,开发者还能将自然语言转换为API调用或者数据库查询。
比如,将「谁是我这个月的十大客户?」转换为内部API调用,即为:get_customers_by_revenue(start_date: string, end_date: string, limit: int)。
又或者把「Acme, Inc.上个月有多少订单?」转换成SQL查询,即为:sql_query(query: string)。
此外,还允许开发者从文本中提取结构化数据。
只需定义一个名为extract_people_data(people: []的函数,就能提取维基百科文章中提到的所有人物。
以前用户需要在Prompt里加一堆描述才能支持Agent,而现在就简单多了,只要在API请求的时候,传入一个functions参数即可。
functions参数实际上就类似于用户要指定的Agent。
注意,这里可以是不止一个function,function是一个对象,还可以加上名称(name)、描述(description)、参数(parameters)等等。
然后,返回的结果就包含了如下结构化的内容:
function_call:调用的函数名,和用户传入的函数名称一致
arguments:JSON格式的参数值,包含了用户调用函数需要的参数名称和值。
比如说:
"function_call": { "name": "get_current_weather", "arguments": "{ \"location\": \"Boston, MA\"}" }
国外网友表示,function最大的价值就是解决了GPT返回数据结构化的问题,不再需要用户输入复杂的prompt。
第一步:OpenAI API
第二步:第三方API
第三步:OpenAI API
模型升级
GPT-4
GPT-4-0613的主要更新就是上面提到的全新函数调用功能。
而GPT-4-32k-0613的更新,除了包含GPT-4-0613的所有更新内容以外,还新增加了更长的上下文长度,从而能更好地理解更长篇幅的文本。
OpenAI表示,未来几周内,将会有更多目前在等待名单上的人可以开始使用GPT-4.
GPT-3.5 Turbo
GPT-3.5-turbo-0613的更新中具备与GPT-4相同的函数调用功能,并通过系统信息提供了更高的可控性。
这两个特性将使开发者能够更有效地引导GPT模型生成的回复。
GPT-3.5-turbo-16k相较于GPT-3.5-turbo拥有4倍的上下文长度,但成本是前者的两倍。
每1000个token输入的费用为0.003美元,每1000个输出token的费用为0.004美元。
16k的上下文长度意味着该模型现在能够在单次对话中支持约20页长度的文本。
同时,OpenAI表示,新模型将于6.27正式上线,而旧模型将于今年9.13后无法再次访问。
价格更低
最后,OpenAI发布的价格降低的新消息也让不少用户为之一动。
text-embedding-ada-002是OpenAI最受欢迎的嵌入模型。今天我们将成本降低了75%,每1,000个token费用为0.0001美元。
而作为最受欢迎的聊天模型——GPT-3.5-turbo,其输入的token费用降低了25%。
开发者现在能以0.0015美元/1000个输入token的价格使用该模型,每1000个输出token费用为0.002美元,相当于每美元大约能使用700页。
GPT-3.5-turbo-16k的定价为0.003美元/每1000个输入token,而每1000个输出token费用为0.004美元。
参考资料:
https://openai.com/blog/function-calling-and-other-api-updates
ChatGPT 一周三次重大升级,“联网”功能已重新启用_腾讯新闻
ChatGPT 一周三次重大升级,“联网”功能已重新启用_腾讯新闻
ChatGPT 一周三次重大升级,“联网”功能已重新启用
图片来源:由无界 AI 生成
ChatGPT又又升级了?
OpenAI 今天宣布 ChatGPT 已经可以重新浏览互联网的最新信息了。此前,ChatGPT 的数据信息更新截止日期为 2021 年 9月,现在已经没有这个限制了。
ChatGPT 以及 GPT-4 的训练数据截止于 2021 年,长达两年的时间差导致 ChatGPT 生成的结果有时已经不再适用,也被很多批评者认为 ChatGPT 无法用于研究目的。
ChatGPT 现在已经重新联网,为您提供最新的权威信息,并且提供直接来源链接,不再局限于2021年9月之前的数据。要启用该功能,需要在 GPT-4 下面的选择器中选择“使用 Bing 浏览(Browse with Bing)”。目前“联网”功能仅针对 ChatGPT Plus 和企业版用户开放,但 OpenAI 表示很快会扩展到所有用户。
ChatGPT此前曾测试这一功能,但之后被暂停,据传是因为借助与Browse with Bing 功能,使得用户可以绕过某些网站的付费机制,从而免费阅读网页的付费内容(华尔街日报、经济学人等),而这可能会让 OpenAI 惹上大麻烦(吃官司),毕竟损害了内容付费网站的利益。
但现在,这个问题似乎已经解决,OpenAI表示,自从五月份最初推出网络浏览功能以来,我们收到了有用的反馈。 这次升级更新包括关注 robots.txt 和识别用户代理,以便网站可以控制 ChatGPT 与其交互的方式。
ChatGPT一周三次重大升级,OpenAI 让竞争对手措手不及
“联网”功能的重新启用已经是 OpenAI 近 1 周以来进行的第三次重大 ChatGPT 升级。
9月 21 日,OpenAI 宣布将推出 ChatGPT 原生的文生图大模型 DALL·E 3,让 ChatGPT 拥有强大的绘画能力(预计 10 月份正式上线)。 DALL·E 3 是 OpenAI 推出的最新版图像生成模型,与前代相比,进行了大量升级,并且首次集成到 ChatGPT。其生图效果十分惊艳,甚至被认为某些方面超越了头部 AI 绘画工具 Midjourney。这也促使 Midjourney 迅速进行回应,Midjourney CEO David Holz 透露称,MJ V6 版本将在今年发布,并且 v5 到 v6 的飞跃将大于 v4 到 v5。
9月 25 日,OpenAI 又宣布为 ChatGPT 增加新的语音和图像能力,提供一种新的、更直观的界面,允许进行语音对话或向ChatGPT 展示您正在谈论的内容。ChatGPT 将集齐“看、听、说”三大能力。
而今天,ChatGPT 终于再次“联网”。
连续三次重大升级,ChatGPT 的能力已经获得大幅提升。这三大升级中,目前只有“联网”功能被明确表示未来会提供给所有用户,包括免费版。而至于 DALL·E 3 和语音能力都是针对 Plus 和企业版用户推出。
这些新的能力确实足够强大,更多的用户可能会愿意付费,预计 OpenAI 距离年收入 10 亿美元的目标又近了一步。
ChatGPT爆火,国内研发进展如何?-新华网
ChatGPT爆火,国内研发进展如何?-新华网
新华网 > > 正文
2023 02/ 10 07:30:36
来源:科技日报
ChatGPT爆火,国内研发进展如何?
字体:
小
中
大
分享到:
ChatGPT爆火,国内研发进展如何?
2023-02-10 07:30:36
来源:
科技日报
这段时间,一款名叫ChatGPT的人工智能聊天系统就像平地起春雷,突然刷爆网络。
“从目前普遍的对话感受来看,ChatGPT的最大亮点就在于其优秀的意图识别与语言理解能力,这令人意识到人工智能的交互能力已经实现了跨越式进展。”易观智慧院高级分析师陈晨评价。
有问必答,侃侃应对。这种神奇的人机互动体验,勾起人们绞尽脑汁向ChatGPT提问的热情,并为其带来惊人的用户量:该系统在两个多月前由美国人工智能研究公司OpenAI推出,今年1月便已达到1亿月活跃用户,用户增长速度堪称史无前例。
这款产品大受欢迎,其重要幕后功臣是被业内称为预训练模型的技术。面对ChatGPT的爆火,国内科技机构和企业纷纷“亮剑”。据最新消息,中国版ChatGPT将于下个月与公众见面。
参数规模从几百万狂飙至几千亿
“目前,预训练技术是人工智能研究的重要突破口。”阿里研究院未来技术中心负责人苏中解读,传统的研究方法中,标注成本一直是阻碍人工智能算法推向更大数据集合的障碍,而预训练技术不依赖数据标注,就可以训练出一个大规模深度学习模型。
科技日报记者了解到,由于不需要数据标注,预训练模型往往可以使用更大的数据集,因而可以选择更大的模型规模——这就催生了预训练大模型。
“与以往的人工神经网络相比,预训练大模型最大的不同在于它规模足够大,深度学习网络的层数多、连接多、参数多。”IDEA研究院(粤港澳大湾区数字经济研究院)认知计算与自然语言研究中心讲席科学家张家兴接受记者采访时介绍,2012年前后的深度学习网络只有几百万参数;2018年前后主流的预训练模型达到1亿参数;目前被证明非常有效的大规模预训练模型已有几千亿参数,短短几年时间提升了几千倍。
量变引起质变。苏中分析,在对预训练模型各种不同的技术评测中,算法性能展示了一个规律:数据规模越大、预训练模型参数越多,算法输出精度往往也越高。
除了规模大以外,张家兴谈到,目前的预训练大模型由于采用了新的结构模型,非常适合并行训练。同时,在训练方式上,人工神经网络的预训练任务类似“解题”,比如把一句话的某个词或前半句去掉,让预训练模型利用海量大数据对句子进行恢复,这样训练下去,预训练模型的“解题”能力就会越来越好。而且,在大语言模型的基础上,引入指令学习,可以远超模型微调带来的收益。在此基础上,人类的反馈可以帮助模型更好地理解人类意图和接收信息,人机对话也就越来越流畅。
“ChatGPT在底层数据、核心技术、用户体验等各方面都可以说是里程碑式的人工智能产品。”旷视研究院基础科研负责人张祥雨表示,ChatGPT的核心技术是人工智能语言大模型,其关键是如何让人工智能模型具备逻辑推理能力,以及如何让人工智能学习全互联网的知识。这些ChatGPT基本都做到了,因此在决策和知识环节有了很大的突破。
国内多家科技机构已布局相关领域
据外媒报道,多家国外科技巨头正重金投入预训练模型和人工智能生成内容(AIGC)赛道。记者了解到,国内已有不少科技机构和企业布局相关领域。
张家兴告诉记者,IDEA研究院认知计算与自然语言研究中心在此方向上布局已久,该中心拥有国内最大的开源模型体系——封神榜,已开源的98个模型正在全力支持中国AIGC的发展,探索研发适配各个领域的个性化可定制模型,支持全部自然语言处理(NLP)任务。
“很高兴能在深度学习高速发展的第十年节点上,看到AIGC和ChatGPT的出现,今天所有这些自然语言处理任务正在被统一到ChatGPT模式下,我们也正在整合之前的模型和技术,推出我们的类ChatGPT模型。”张家兴说。
记者从百度获悉,百度已投入开发类似ChatGPT的相关技术,该项目名字确定为文心一言,英文名ERNIE Bot,3月份完成内测后面向公众开放。目前,文心一言在做上线前的冲刺。
“ChatGPT主要涉及自然语言处理相关技术,属于认知智能领域的应用之一,科大讯飞在该方向的技术和应用方面具备长期深厚的积累。”2月8日晚,科大讯飞在投资者互动平台回应称,公司已面向认知智能领域陆续开源了6大类、超过40个通用领域的系列中文预训练语言模型,并于去年12月启动生成式预训练大模型任务攻关,人工智能学习机将成为该项技术率先落地的产品,今年5月将进行产品级发布。
此外,360公司2月7日在投资者互动平台表示,该公司也计划尽快推出类ChatGPT技术的原型版产品。“AIGC技术除了在搜索引擎的应用之外,还可以辅助数字安全能力的提升。”360公司称。(记者 刘园园)(记者操秀英、刘艳对此文亦有贡献)
【纠错】
【责任编辑:赵文涵
】
阅读下一篇:
深度观察
新华全媒头条丨三江源:20年艰辛保护 筑牢“中华水塔”
民生直通车丨服务“春风”助办税缴费减负担增便利
新华全媒+丨古镇杨柳青文旅市场复苏观察
两岸关系丨台湾旅游业者盼望大陆游客早日回流
新华每日电讯丨《狂飙》何以“狂飙”
经参丨奖金牌奖支票奖荣誉 苏南“开春奖企业”奖出了什么?
追光丨这些人工智能深刻影响了体育
全球连线丨中国滑雪少年,飒
开学如何收心?get这些建议
融媒集萃
中国“汽车城”克服疫情冲击抢占发展先机
卫星影像:2022,变局中的世界
2022,敬平凡又不凡的每一天
010030090950000000000000011100001129352532