JavaScript字符串的长度问题
作者:误念
字符串的长度 length
描述:JavaScript提供了一系列方法,来帮助我们更好的使用字符串
1.测量字符串长度:length属性
描述:length属性返回字符串的长度和字符串的个数
语法:字符串变量名.length
var i = "你好"; var result = i.length; console.log(result);
2.字符索引:[]方法
描述:字符串后面接中括号,中括号中写数字,能够访问字符串中的所有个数
语法:字符串变量名[]
var i = ["宝马","法拉利","兰博基尼"]; var c = i[1]; console.log(c);
3.获取指定位置字符:charAt()方法和CharCodeAt()方法
描述:charAt()方法和CharCodeAt()两者都是表示获取指定位置的字符
charAt()
描述:根据指定位置的索引返回具体的字符
var i = 'niHaoWoShi'; var j = i.charAt(2); console.log(i.charAt(2));
CharCodeAt()
描述:返回的是字符对应的Unicode编
注意:如果charCodeAt返回的值是:负数或大于字符串的长度则会返回的值是NaN
var j = i.charCodeAt(2); console.log(j);
4.字符串连接:concat()方法
描述:concat()方法能够将多个字符串连接起来,合成一个新的字符串
语法:字符串变量1.concat(字符串变量2,字符串变量3);
var str = 'niHaoWoShi'; var str2 = 'hello'; var str3 = 'sxt'; var i = str.concat(str2,str3); console.log(i);
JavaScript字符串长度返回错误的原因
JavaScript 使用 Unicode 字符集。JavaScript 引擎内部,所有字符都用 Unicode 表示。
每个字符在 JavaScript 内部都是以16位(即2个字节)的 UTF-16 格式储存。也就是说,JavaScript 的单位字符长度固定为16位长度,即2个字节。
但是,UTF-16 有两种长度:对于码点在U+0000到U+FFFF之间的字符,长度为16位(即2个字节);对于码点在U+10000到U+10FFFF之间的字符,长度为32位(即4个字节)。
JavaScript 对 UTF-16 的支持是不完整的,由于历史原因,只支持两字节的字符,不支持四字节的字符。
'𝌆'.length // 2
上面代码中,JavaScript 认为𝌆的长度为2,而不是1。
总结一下,对于码点在U+10000到U+10FFFF之间的字符,JavaScript 总是认为它们是两个字符(length属性为2)。所以处理的时候,必须把这一点考虑在内,也就是说,JavaScript 返回的字符串长度可能是不正确的。
ES6加强了对unicode的支持,以前必须拆分成2个2字节unicode码表示的字符,现在可以用大括号括起来,直接用一个码点表示。
'\u{1F680}' === '\uD83D\uDE80' // true
总结
以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。