我在想,能不能用户上传无法显示的汉字的svg的字形到commons,然后通过这个插件调用?考虑到浏览器兼容性,svg字形针对不同浏览器对webfont的支持,生成相应的字体格式文件。

另外请参考: 
http://glyphwiki.org/wiki/GlyphWiki:%E3%81%A9%E3%81%86%E3%82%84%E3%81%A3%E3%81%A6%E4%BD%BF%E3%81%86%E3%81%AE%E3%81%8B

日本人做的一个显示生僻汉字的解决方法
Chinese wikipedia: http://zh.wikipedia.org/
My blog: http://shizhao.org
twitter: https://twitter.com/shizhao

[[zh:User:Shizhao]]


在 2014年5月12日 下午7:19,Xiao Xiangquan <xiaoxiangq...@gmail.com> 写道:
> 谢谢您的建议!
>
> 服务器运算应该问题不大,只有在每次编辑完、提交的时候会解析页面并生成字体 文件,缓存起来。对于wiki这种“少量写、大量读”的页面,性
> 能暂时可以不用考虑。
>
> 对于字体收集,目前的设计是这样的:在页面显示时,会探测是否有某个字无法显 示,比如某个页面写着“今天囧死了”,程序发现“囧”无法显示, 就会在那儿显示
> 一个小控件,用户可以点击这个控件,在弹出的窗口里上传这个字形。后台我们会 有审核者对字形进行审核、入库。这也非常符合贡 献、分享的维基精神。
>
> 所以并不是用户想上传哪个字就上传哪个字,而是程序检测到缺某个字时会给予上 传的接口。
>
>
> 其实我对wiki也是刚刚接触,很多东西都不了解。非常感谢您提供的几个链接,我 会逐一阅览研究 :)
>
>
>
> On 2014/5/12 17:56, mr w wrote:
>>
>> 以下是卑微的本人的思考,抛砖引玉:
>>
>>
>> 1. 字体裁剪。针对每个页面生成专用字体文件,比如页面a只使用了1
>> 07个汉字,就为它生成只含107个汉字的字体文件,大概只有10~20KB,下载速度极快。
>> ------
>>
>> 如果对每个页面生成专用一个字体文件需要服务器资源,如果让浏览器下载107个汉字的字体文件(每个字体一个文件)会降低浏览速度。应该找出服务器运算/输出文件速度和浏览器下载多个文件速度并显示的平衡点。
>>
>>
>> 2. 字体收集。如果页面上包含了一个字形,连服务器的字形库里也没有,就提供一个接口,鼓励用户制作这个字形并上传给服务器。
>> -----
>>
>> 寻找unicode已有字符是个困难的事,应该想办法避免让用户上传认为没有但实际unicode已经拥有的字符。这涉及字符识别。关于字符识别可以考虑研发古文OCR软件,帮助Wikisource识别
>> 工整手写的古文 <https://archive.org/details/cadal>,让编者校对,其中Unicode没有的字符按照阁下的工具显示。
>>
>> 可以考虑成立一个类似wiki commons <http://commons.wikimedia.org/>
>> 的中心服务网站,用户可在上面上传字符,供所有安装插件的wiki使用。
>>
>>
>> 在 2014年5月12日 下午12:34,Xiao Xiangquan <xiaoxiangq...@gmail.com>写道:
>>
>>> 大家好,
>>> 在今年的Google Summer of Code项目中,我所申请的“为通用语言选择器提供中文字体支持”项目成功入选,
>>> 将在未来的三个月内完成这一工程,并争取早日合并入主代码库。
>>>
>>> *工程概述:**
>>> *如果一个页面中包含了需要某种字体才能显示的文字,而阅读者的设备上没有这种字体,就会显示出无法阅读的“豆腐块”。这种问题对于中文尤为常见,
>>> 因为很多非中文用户的设备里没有中文字体;而且中文用户的字体库里也不可能含有所有字符。我们知道汉字有8万个以上,
>>> 仅在Unicode中就定义了7万多,而实际上中文常用字很少,只有3500个左右。大多数用户都只安装了这些常用字,
>>> 几乎不可能有人安装了包含所有汉字的字体。而Wiki作为一种包罗万象的媒体,页面上可能包含任何汉字。
>>> 可以想象一下,我们写一个“古汉字专题Wiki”或者“生僻汉字专题Wiki”,对大多数人来说它们将是无法阅读的。
>>>
>>>
>>> Webfonts技术是解决豆腐问题的一个办法,已经在wikimedia中启用。当发现页面中的特殊字体无法正常显示时,就从服务器上下载对应的字体文件。
>>> 然而到目前为止wikimedia的webfonts仍然不支持中文,可能是因为中文字体太大了。即便只包含常用的3000多个汉字的字体文件,
>>> 大小也会以数MB记,而我们要的是包含所有生僻字的解决方案,字体文件将达到几十MB,无法想象在打开一个页面时如果要加载这么大的文件,谁还会愿意打开。
>>>
>>> 本工程要解决的就是上述问题,主要完成两件事:
>>> 1. 字体裁剪。针对每个页面生成专用字体文件,比如页面a只使用了107个汉字,就为它生成只含107个汉字的字体文件,大概只有10~
>>> 20KB,下载速度极快。
>>> 2. 字体收集。如果页面上包含了一个字形,连服务器的字形库里也没有,就提供一个接口,鼓励用户制作这个字形并上传给服务器。
>>>
>>> 解决了这两个问题,你将几乎再也看不到任何中文“豆腐块”,你写的包含任何汉字的wiki页面,也几乎可以被世界上任何读者无障碍阅读。
>>>
>>>
>>>
>>> 欢迎关注本工作的进展,提出意见、建议,试用、报告Bug等。
>>>
>>> 工作进度:
>>> https://www.mediawiki.org/wiki/Extension:UniversalLanguageSelector/
>>> Fonts_for_Chinese_wikis
>>>
>>> 项目提议书(英文):
>>> https://www.mediawiki.org/wiki/Extension:UniversalLanguageSelector/
>>> Fonts_for_Chinese_wikis/proposal
>>>
>>> 我的LinkedIn: linkedin.com/in/xiaoxiangquan
>>> 我的新浪微博: weibo.com/xiaoxq
>>>
>>> _______________________________________________
>>> Wikizh-l 邮件列表
>>> Wikizh-l@lists.wikimedia.org
>>> https://lists.wikimedia.org/mailman/listinfo/wikizh-l
>>>
>> _______________________________________________
>> Wikizh-l 邮件列表
>> Wikizh-l@lists.wikimedia.org
>> https://lists.wikimedia.org/mailman/listinfo/wikizh-l
>
>
>
> _______________________________________________
> Wikizh-l 邮件列表
> Wikizh-l@lists.wikimedia.org
> https://lists.wikimedia.org/mailman/listinfo/wikizh-l
_______________________________________________
Wikizh-l 邮件列表
Wikizh-l@lists.wikimedia.org
https://lists.wikimedia.org/mailman/listinfo/wikizh-l

回复