Token是一种用于识别用户身份的凭证,由服务器生成并返回给客户端。客户端在后续请求中携带该Token,服务器通过解析Token验证用户身份,决定是否授权访问资源。
Token是一种用于识别用户身份的凭证,由服务器生成并返回给客户端。客户端在后续请求中携带该Token,服务器通过解析Token验证用户身份,决定是否授权访问资源。
基准测试(Benchmarking)是一种评估和比较系统性能的方法,通过一系列标准化的测试程序来测量系统的性能表现。这种测试可以帮助确定系统在特定条件下的性能...
狭义人工智能(Artificial Narrow Intelligence, ANI)也被称为“弱人工智能”,是指被设计和训练来执行特定任务或狭窄范围内任务的人工智能系统。与拥有类似人...
前向传播(Forward Propagation)是神经网络中的核心过程,它描述了输入数据如何通过网络层传递并生成输出的过程。输入数据被送入神经网络的输入层。输入数据...
审议对齐(Deliberative Alignment)是OpenAI提出的一种新的训练方法,旨在提高大型语言模型的安全性和可靠性。这种方法通过结合基于过程和结果的监督,让模...
指令调优(Instruction Tuning, IT)是一种针对大型语言模型(Large Language Models,简称LLMs)的训练方法,旨在提高模型遵循自然语言指令并完成现实世界任...
视觉语言模型(Vision-Language Models, VLMs)是一种多模态人工智能系统,它结合了图像和文本的处理能力,以执行高级视觉语言任务,如视觉问答(Visual Ques...
欠拟合(Underfitting)是指机器学习模型在训练数据上的表现不够好,导致在测试数据上也表现不佳。发生在模型过于简单,无法捕捉到数据中的复杂模式时。欠拟...
鲁棒性(Robustness)是指一个系统、模型或实体在面对输入数据中的扰动、噪声、异常值或设计参数变化时,仍能保持其预期功能、性能稳定且结果准确的能力。鲁...
人脸识别(Face recognition)是一种基于人的面部特征进行身份识别的技术。通过计算机视觉和模式识别技术,对输入的人脸图像或视频流进行分析,首先判断是否...
人工智能对齐(AI Alignment)是指确保人工智能系统的行为与人类的意图和价值观保持一致的领域。核心目标可以概括为四个关键原则:鲁棒性(Robustness)、可...
图像生成(Image generation)是计算机视觉领域的一项重要研究方向,通过深度学习模型,如VAE、GANs和Diffusion Model等,从数据中学习并生成新的图像。这项...
图灵测试(Turing Test)是由英国数学家、逻辑学家阿兰·图灵(Alan Turing)在1950年提出的一个实验,用以判断机器是否能够展现出与人类等价或无法区分的智能...
隐藏层(Hidden Layer)是人工神经网络中的中间层,位于输入层和输出层之间。作用是对输入数据进行特征提取和变换,为最终的输出层提供高层次特征。隐藏层之...
Transformer模型是一种深度学习模型,在2017年由Google的研究团队在论文《Attention is All You Need》中首次提出。这种模型的核心思想是自注意力机制(self-...
模型量化(Model Quantization)是深度学习模型优化中的一项关键技术,它通过减少模型参数的位宽来降低模型的存储和计算需求,从而提高模型在各种硬件平台上...
NeRF(Neural Radiance Fields)是一种用于生成高质量三维重建模型的计算机视觉技术。通过深度学习技术从多个视角的图像中提取对象的几何形状和纹理信息,然...
面部识别(Facial Recognition)是一种基于人的脸部特征信息进行身份识别的生物识别技术。它通过采集含有人脸的图像或视频流,自动检测和跟踪人脸,进一步对...
3D高斯溅射(3D Gaussian Splatting)是一种新兴的三维场景重建和渲染技术,它通过使用3D高斯函数来表示场景中的点,并将这些高斯函数投影到2D图像平面上进行...
上下文嵌入(Contextual Embedding)是一种将词汇映射到向量空间的技术,它为每个词生成一个基于其上下文的表示。这些表示能够捕捉词汇在不同上下文中的多样...
正则化是一种在机器学习中用于防止模型过拟合的技术。通过在模型的损失函数中添加一个惩罚项来实现,这个惩罚项与模型参数的复杂度相关。正则化有助于限制模...
数据增强(Data Augmentation)是机器学习和深度学习领域中一种常用的技术,在计算机视觉和自然语言处理中应用广泛。核心目的是通过对现有数据进行变换或生成...
基础模型(Foundation Models)是近年来在人工智能领域迅速发展的一种模型,在大规模、广泛来源的数据集上进行预训练,能执行一系列的通用任务。这些模型基于...
合成数据(Synthetic Data)是一种非人工创建的数据,通过计算算法和模拟生成,用以模仿真实世界数据。它具有与实际数据相同的数学特性,但不包含相同的具体...