重复惩罚、长度限制等,以调节模型的输出。例如,对于文本生成任务,我使用了较高的温度和较低的重复惩罚,以增加生成文本的多样性和创新性;对于图像生成任务,我使用了较低的温度和较高的重复惩罚,以减少生成图像的噪声和模糊度;对于自然语言理解任务,我使用了较短的长度限制,以避免模型的冗余和偏离;对于知识抽取任务,我使用了较长的长度限制,以允许模型提供更多的细节和证据。## 记录在过去的一年,我记录了我使用的大模型和提示...
长度,将取最后 `max_prompt_tokens` 个 token 输入模型 依赖模型默认配置 parameters.temperature number 采样温度,(0, 1.0] 依赖模型默认配置 parameters.top_p number 核采样,[0, 1.0] 依赖模型默认配置 parameters.top_k integer top-k-filtering 算法保留多少个 最高概率的词 作为候选,正整数。 依赖模型默认配置 parameters.do_sample bool 是否采样 依赖模型默认配置 parameters.presence_penalty number 存在惩罚,如果为正...
重复惩罚、长度限制等,以调节模型的输出。例如,对于文本生成任务,我使用了较高的温度和较低的重复惩罚,以增加生成文本的多样性和创新性;对于图像生成任务,我使用了较低的温度和较高的重复惩罚,以减少生成图像的噪声和模糊度;对于自然语言理解任务,我使用了较短的长度限制,以避免模型的冗余和偏离;对于知识抽取任务,我使用了较长的长度限制,以允许模型提供更多的细节和证据。## 记录在过去的一年,我记录了我使用的大模型和提示...
会根据新 token 在文本中的出现频率对其进行惩罚,从而降低模型重复相同内容的可能性。 logit_bias - map 否 修改指定 token 在模型输出内容中出现的概率。 接受一个 map,该对象将 token(token id 使用 tokeni... 长度限制。 stop - string/array 否 用于指定模型在生成响应时应停止的词语。当模型生成的响应中包含这些词汇时,生成过程将停止。 stream - boolean 否 是否流式返回。如果为 true,则按 SSE 协议返回数据。 strea...
会根据新 token 在文本中的出现频率对其进行惩罚,从而降低模型重复相同内容的可能性。 1 logit_bias - map 否 修改指定 token 在模型输出内容中出现的概率。 接受一个 map,该对象将 token(token id 使用 tok... 长度限制。 null stop - string/array 否 用于指定模型在生成响应时应停止的词语。当模型生成的响应中包含这些词汇时,生成过程将停止。 null stream - boolean 否 是否流式返回。如果为 true,则按 SSE 协议返回数...
strength_clip用于指定对CLIP模型的影响程度(其中CLIP模型用于处理positive_prompt negative_prompt) python loras: - model: model_name: xxx strength_model: 1.0 // [0.... side_length 为选取的边的scale长度,upscale_method 与 crop 与上面 scale 的相同。 使用说明点击模型仓库页面的上传模型按钮,可以上传自定义模型。上传 SD 模型需要先选定一个 SD 基础模型,因为不同的基础模型,对...
0表示不生效 "max_prompt_tokens": 3000, 最大输入 token 数,如果给出的 prompt 的 token 长度超过此限制,取最后 max_prompt_tokens 个 token 输入模型。 "system_prompt": '', 系统角色,设定模型的行为和背景,告知模型需要扮演的角色。 "repetition_penalty": 1.1 重复token输出的惩罚项 }, 如果是单轮对话,构造message的方式 "messages": [ { ...