上机练习第50天

第一题

个人总结:首先比较两个字符串长度,不等则直接输出1;长度相等时,逐个字符比较是否完全一致(区分大小写),完全一致则输出2;若不满足情况2,则转换为相同大小写后比较,若一致则输出3;以上条件都不满足,输出4。

代码如下:

复制代码
#include <stdio.h>
#include <string.h>
#include <ctype.h>
int main() {
    char str1[11], str2[11];
    int len1, len2;
    int i;
    scanf("%s", str1);
    scanf("%s", str2);
    len1 = strlen(str1);
    len2 = strlen(str2);
    if (len1 != len2) {
        printf("1\n");
        return 0;
    }
    if (strcmp(str1, str2) == 0) {
        printf("2\n");
        return 0;
    }
    int caseInsensitiveMatch = 1;
    for (i = 0; i < len1; i++) {
        if (tolower(str1[i]) != tolower(str2[i])) {
            caseInsensitiveMatch = 0;
            break;
        }
    }
    if (caseInsensitiveMatch) {
        printf("3\n");
    } else {
        printf("4\n");
    }
    
    return 0;
}

翻译

Transformer模型是一种基于注意机制的神经网络体系结构,在自然语言处理领域取得了巨大的成功。与传统的递归神经网络不同,Transformers不依赖于循序渐进的序列处理。相反,他们使用自我注意机制来同时处理整个序列。这种架构不仅提高了模型执行并行计算的能力,还使其能够更有效地捕获远距离依赖关系。在机器翻译任务中,Transformer模型可以根据句子中不同单词之间的关系动态分配注意力权重,从而产生更准确的翻译。此外,Transformer体系结构已被广泛应用于文本生成、语音识别甚至图像处理等任务。近年来,大多数大规模的预训练语言模型都是建立在Transformer体系结构之上的,这大大加快了人工智能技术的发展。

单词打卡

相关推荐
中科院提名者2 小时前
莫比乌斯反演(Möbius Inversion)
算法
Tisfy2 小时前
LeetCode 1727.重新排列后的最大子矩阵:枚举矩形底边是哪一行 + 排序
算法·leetcode·矩阵
Via_Neo2 小时前
日期问题和日期常用API
数据结构·算法
罗湖老棍子2 小时前
Maximum Subarray Sum II最大连续区间和(CSES- P1644)
算法·滑动窗口·单调队列
小年糕是糕手3 小时前
【C++】string类(三)
开发语言·数据结构·c++·程序人生·算法
胖祥3 小时前
onnx之NodeComputeInfo
开发语言·c++·算法
无限空间之王3 小时前
我让三个 AI 互相竞争进化,两天后它们发明了一个我看不懂的算法
算法
sinat_255487813 小时前
为 System.out 编写我们自己的包装类
java·开发语言·算法
阿Y加油吧3 小时前
力扣打卡——盛最多水的容器、三数之和
算法·leetcode·排序算法