客服电话:13533957190  服务时间:周一到周六 9:00-20:00

10秒快速发布

免费预约专业提供网站解决方案

江西作为新手如何搭建网站

日期:02-14  浏览:1809
网站模板免费,网站免费建设,免费网站建站,免费建站网站

站外锚文本,站外锚文本便是除了本站以外在他人网站发布锚文本链接的一种形式,最常见的便是友情链接了,通过友链交换在别人的网站留下一个锚文本链接指向自己网站页面。站外锚文本属于外链的一种,相较于超链接外链和文本链接外链,站外锚文本链接往往很难获取,尤其是优质锚文本,所以很多人会选择友情链接购买。CDN专业术语指的是内容分发网络。简单的说是,把网站部署到全国各地的服务器上,吸引就近用户访问,形成这种网络构建是CDN。CDN网络解决 Internet网络拥挤的状况,提高用户访问网站的响应速度。

 


网站开启CDN的好处有哪些?降低带宽成本,使用CDN能实现网站的全国铺设,不用投入新增宽带成本以及多台服务器的镜像同步,最大程度的降低带宽成本和人力维护成本。提升用户访问速度如果含有大量图片和静态页面站点,访问速度就会变慢,CDN几乎可以涵盖国内所有线路,帮用户自动匹配最快访问速度,有效的提升了用户的访问速度和浏览体验.使用CDN后全国的访问速度-平均传输速度5.76MB/s ,使用CDN前全国访问速度-平均下载速度590KB/s 

江西作为新手如何搭建网站

如何解决网站跳转率?网站不能满足大多数用户的搜索需求,用户也找不到自己的需求或兴趣。遇到网站跳高的问题,如何解决网站跳高的问题?

 如何解决网站跳跃率问题?有几种方法可以解决网站跳转率的问题。

1、网站导航栏

优化网站导航,利用用户在短时间内获得帮助或兴趣,降低用户获取内容的成本和时间成本,用户不会迅速跳出网站。

2、网页布局与设计。

图像设计、内容设计,收录网站集合设计的所有要素,可以让用户体验到高质量的内容,高质量的视觉效果,从而解决网站跳跃率高的问题。

3、更新网站的内容规律

网站的内容必须长期保存,高质量内容的长期更新,用户可以找到所需要的内容,这将大大降低网站跳转率。

4、建立手机端网站

随着手机用户数量的增加,建立手机网站也很重要。在建立手机网站的过程中,我们也要注意电脑端,以及手机端相同的点和不同的点,手机端越简单越好,内容不能积累得太多。

5、浏览器兼容问题

在构建网站时,浏览器兼容性是必须的,浏览器兼容性必须在网站构建的早期阶段进行测试。

6、提高网站的速度

网站的开放速度不仅对搜索引擎有很大的影响,对用户也很重要。网站的加载速度越快,用户找到最有用信息的速度就越快,自然跳转率就会大大降低。

在此,对seo人普遍关注的熊掌号相关问题,以seo问答的形式做一些说明,:问:什么是熊掌号?答:百度熊掌号是内容和服务提供者入驻百度生态的认证账号,致力于帮助内容和服务提供者便捷、高效地连接全网用户,并充分利用百度生态开放的优势,获取流量、沉淀用户、塑造品牌,实现自身价值的快速增长。问:熊掌号注册收费吗?答:注册开通熊掌号是免费的。问:熊掌号注册应该怎么选择账号类型?答:熊掌号有个人、媒体、企业、政府、其他组织五种帐号类型,供运营者根据实际情况选择。

问题由来前些天工作中遇到一个问题:有 60万 条短消息记录日志,每条约 50 字,5万 关键词,长度 2-8 字,绝大部分为中文。要求将这 60万 条记录中包含的关键词全部提取出来并统计各关键词的命中次数。本文完整介绍 ...,问题由来前些天工作中遇到一个问题:有 60万 条短消息记录日志,每条约 50 字,5万 关键词,长度 2-8 字,绝大部分为中文。要求将这 60万 条记录中包含的关键词全部提取出来并统计各关键词的命中次数。本文完整介绍了我的实现方式,看我如何将需要运行十小时的任务优化到十分钟以内。虽然实现语言是 PHP,但本文介绍的更多的思想,应该能给大家一些帮助。原始 - grep设计一开始接到任务的时候,我的小心思立刻转了起来,日志 + 关键词 + 统计,我没有想到自己写代码实现,而是首先想到了 linux 下常用的日志统计命令 grep。grep命令的用法不再多提,使用 grep 'keyword' | wc -l 可以很方便地进行统计关键词命中的信息条数,而php的 exec() 函数允许我们直接调用 linux 的 shell 命令,虽然这样执行危险命令时会有安全隐患。代码上伪代码:foreach ($word_list as $keyword) { $count = intval(exec("grep '{$keyword}' file.log | wc -l")); record($keyword, $count);}在一台老机器上跑的,话说老机器效率真的差,跑了6小时。估计最新机器2-3小时吧,后面的优化都使用的新机器,而且需求又有变动,正文才刚刚开始。原始,原始在想法和方法。进化 - 正则设计交了差之后,第二天产品又提出了新的想法,说以后想把某数据源接入进来,消息以数据流的形式传递,而不再是文件了。而且还要求了消息统计的实时性,一下把我想把数据写到文件再统计的想法也推翻了,为了方案的可扩展性,现在的统计对象不再是一个整体,而是要考虑拿n个单条的消息来匹配了。这时,略懵的我只好祭出了最传统的工具- 正则。正则的实现也不难,各个语言也都封装好了正则匹配函数,重点是模式(pattern)的构建。当然这里的模式构建也不难,/keyword1|keword2|.../,用|将关键词连接起来即可。正则小坑这里介绍两个使用中遇到的小坑:正则模式长度太长导致匹配失败:PHP 的正则有回溯限制,以防止消耗掉所有的进程可用堆栈, 最终导致 php 崩溃。太长的模式会导致 PHP 检测到回溯过多,中断匹配,经测试默认设置时最大模式长度为 32000 字节 左右。php.ini 内 pcre.backtrack_limit 参数为最大回溯次数限制,默认值为 1000000,修改或php.ini 或在脚本开始时使用ini_set(‘pcre.backtrack_limit’, n); 将其设置为一个较大的数可以提高单次匹配最大模式长度。当然也可以将关键词分批统计(我用了这个=_=)。模式中含有特殊字符导致大量warning:匹配过程中发现 PHP 报出大量 warning:unknown modifier 乱码,仔细检查发现关键词中有/字符,可以使用preg_quote()函数过滤一遍关键词即可。代码上伪代码:$end = 0;$step = 1500;$pattern = array();// 先将pattern 拆成多个小块while ($end < count($word_list)) { $tmp_arr = array_slice($word_list, $end, $step); $end += $step; $item = implode('|', $tmp_arr); $pattern[] = preg_quote($item);}$content = file_get_contents($log_file);$lines = explode("\\n", $content);foreach ($lines as $line) { // 使用各小块pattern分别匹配 for ($i = 0; $i < count($pattern); $i++) { preg_match_all("/{$pattern[$i]}/", $line, $match); } $match = array_unique(array_filter($match)); dealResult($match);}为了完成任务,硬着头皮进程跑了一夜。当第二天我发现跑了近十个小时的时候内心是崩溃的。。。太慢了,完全达不到使用要求,这时,我已经开始考虑改换方法了。当产品又改换了关键词策略,替换了一些关键词,要求重新运行一遍,并表示还会继续优化关键词时,我完全否定了现有方案。绝对不能用关键词去匹配信息,这样一条一条用全部关键词去匹配,效率实在是不可忍受。进化,需求和实现的进化觉醒 - 拆词设计我终于开始意识到要拿信息去关键词里对比。如果我用关键词为键建立一个 hash 表,用信息里的词去 hash 表里查找,如果查到就认为匹配命中,这样不是能达到 O(1) 的效率了么?可是一条短消息,我如何把它拆分为刚好的词去匹配呢,分词?分词也是需要时间的,而且我的关键词都是些无语义的词,构建词库、使用分词工具又是很大的问题,最终我想到 拆词。为什么叫拆词呢,我考虑以蛮力将一句话拆分为所有可能的词。如我是好人就可以拆成 我是、是好、好人、我是好、是好人、我是好人等词,我的关键词长度为 2-8,所以可拆词个数会随着句子长度迅速增加。不过,可以用标点符号、空格、语气词(如的、是等)作为分隔将句子拆成小短语再进行拆词,会大大减少拆出的词量。其实分词并没有完整实现就被后一个方法替代了,只是一个极具实现可能的构想,写这篇文章时用伪代码实现了一下,供大家参考,即使不用在匹配关键词,用在其他地方也是有可能的。代码$str_list = getStrList($msg);foreach ($str_list as $str) { $keywords = getKeywords($str); foreach ($keywords as $keyword) { // 直接通过PHP数组的哈希实现来进行快速查找 if (isset($word_list[$keyword])) { record($keyword); } }}/** * 从消息中拆出短句子 */function getStrList($msg) { $str_list = array(); $seperators = array(',', '。', '的', ...); $words = preg_split('/(? $str = array(); foreach ($words as $word) { if (in_array($word, $seperators)) { $str_list[] = $str; $str = array(); } else { $str[] = $word; } } return array_filter($str_list);}/** * 从短句中取出各个词 */function getKeywords($str) { if (count($str) < 2) { return array(); } $keywords = array(); for ($i = 0; $i < count($str); $i++) { for ($j = 2; $j < 9; $j++) { $keywords[] = array_slice($str, $i, $j); // todo 限制一下不要超过数组最大长度 } } return $keywords;}结果我们知道一个 utf-8 的中文字符要占用三个字节,为了拆分出包含中英文的每一个字符,使用简单的 split() 函数是做不到的。这里使用了 preg_split('/(?由于没有真正实现,也不知道效率如何。估算每个短句长度约为 10 字左右时,每条短消息约50字左右,会拆出 200 个词。虽然它会拆出很多无意义的词,但我相信效率绝不会低,由于其 hash 的高效率,甚至我觉得会可能比终极方法效率要高。最终没有使用此方案是因为它对句子要求较高,拆词时的分隔符也不好确定,最重要的是它不够优雅。。。这个方法我不太想去实现,统计标识和语气词等活显得略为笨重,而且感觉拆出很多无意义的词感觉效率浪费得厉害。觉醒,意识和思路的觉醒终级 - Trie树trie树于是我又来找谷哥帮忙了,搜索大量数据匹配,有人提出了 使用 trie 树的方式,没想到刚学习的 trie 树的就派上了用场。我上上篇文章刚介绍了 trie 树,在空间索引 - 四叉树 里字典树这一小节,大家可以查看一下。当然也为懒人复制了一遍我当时的解释(看过的可以跳过这一小节了)。字典树,又称前缀树或 trie 树,是一种有序树,用于保存关联数组,其中的键通常是字符串。与二叉查找树不同,键不是直接保存在节点中,而是由节点在树中的位置决定。一个节点的所有子孙都有相同的前缀,也就是这个节点对应的字符串,而根节点对应空字符串。我们可以类比字典的特性:我们在字典里通过拼音查找晃(huang)这个字的时候,我们会发现它的附近都是读音为huang的,可能是声调有区别,再往前翻,我们会看到读音前缀为huan的字,再往前,是读音前缀为hua的字... 取它们的读音前缀分别为 h qu hua huan huang。我们在查找时,根据 abc...xyz 的顺序找到h前缀的部分,再根据 ha he hu找到 hu 前缀的部分...最后找到 huang,我们会发现,越往后其读音前缀越长,查找也越精确,这种类似于字典的树结构就是字典树,也是前缀树。设计那么 trie 树怎么实现关键字的匹配呢? 这里以一幅图来讲解 trie 树匹配的过程。其中要点:构造trie树将关键词用上面介绍的preg_split()函数拆分为单个字符。如科学家就拆分为科、学、家三个字符。在最后一个字符后添加一个特殊字符 `,此字符作为一个关键词的结尾(图中的粉红三角),以此字符来标识查到了一个关键词(不然,我们不知道匹配到科、学两个字符时算不算匹配成功)。检查根部是否有第一个字符(科)节点,如果有了此节点,到步骤4。 如果还没有,在根部添加值为科的节点。依次检查并添加学、家 两个节点。在结尾添加`节点,并继续下一个关键词的插入。匹配然后我们以 这位科学家很了不起!为例来发起匹配。首先我们将句子拆分为单个字符 这、位、...;从根查询第一个字符这,并没有以这个字符开头的关键词,将字符“指针”向后移,直到找到根下有的字符节点科;接着在节点科下寻找值为 学节点,找到时,结果子树的深度已经到了2,关键词的最短长度是2,此时需要在学结点下查找是否有`,找到意味着匹配成功,返回关键词,并将字符“指针”后移,如果找不到则继续在此结点下寻找下一个字符。如此遍历,直到最后,返回所有匹配结果。代码完整代码我已经放到了GitHub上:Trie-GitHub-zhenbianshu,这里放上核心。首先是数据结构树结点的设计,当然它也是重中之重: $node = array( 'depth' => $depth, // 深度,用以判断已命中的字数 'next' => array( $val => $node, // 这里借用php数组的哈希底层实现,加速子结点的查找 ... ),);然后是树构建时子结点的插入:// 这里要往节点内插入子节点,所以将它以引用方式传入private function insert(&$node, $words) { if (empty($words)) { return; } $word = array_shift($words); // 如果子结点已存在,向子结点内继续插入 if (isset($node['next'][$word])) { $this->insert($node['next'][$word], $words); } else { // 子结点不存在时,构造子结点插入结果 $tmp_node = array( 'depth' => $node['depth'] + 1, 'next' => array(), ); $node['next'][$word] = $tmp_node; $this->insert($node['next'][$word], $words); } }最后是查询时的操作:// 这里也可以使用一个全局变量来存储已匹配到的字符,以替换$matchedprivate function query($node, $words, &$matched) { $word = array_shift($words); if (isset($node['next'][$word])) { // 如果存在对应子结点,将它放到结果集里 array_push($matched, $word); // 深度到达最短关键词时,即可判断是否到词尾了 if ($node['next'] > 1 && isset($node['next'][$word]['next']['`'])) { return true; } return $this->query($node['next'][$word], $words, $matched); } else { $matched = array(); return false; } }结果结果当然是喜人的,如此匹配,处理一千条数据只需要3秒左右。找了 Java 的同事试了下,Java 处理一千条数据只需要1秒。这里来分析一下为什么这种方法这么快:正则匹配:要用所有的关键词去信息里匹配匹配次数是 key_len * msg_len,当然正则会进行优化,但基础这样,再优化效率可想而知。而 trie 树效率最差的时候是 msg_len * 9(最长关键词长度 + 1个特殊字符)次 hash 查找,即最长关键词类似 AAA,信息内容为 AAA...时,而这种情况的概率可想而知。至此方法的优化到此结束,从每秒钟匹配 10 个,到 300 个,30 倍的性能提升还是巨大的。终级,却不一定是终极他径 - 多进程设计匹配方法的优化结束了,开头说的优化到十分钟以内的目标还没有实现,这时候就要考虑一些其他方法了。我们一提到高效,必然想到的是 并发,那么接下来的优化就要从并发说起。PHP 是单线程的(虽然也有不好用的多线程扩展),这没啥好的解决办法,并发方向只好从多进程进行了。那么一个日志文件,用多个进程怎么读呢?这里当然也提供几个方案:进程内添加日志行数计数器,各个进程支持传入参数 n,进程只处理第 行数 % n = n 的日志,这种 hack 的反向分布式我已经用得很熟练了,哈哈。这种方法需要进程传参数,还需要每个进程都分配读取整个日志的的内存,而且也不够优雅。使用 linux 的 split -l n file.log output_pre 命令,将文件分割为每份为 n 行的文件,然后用多个进程去读取多个文件。此方法的缺点就是不灵活,想换一下进程数时需要重新切分文件。使用 Redis 的 list 队列临时存储日志,开启多个进程消费队列。此方法需要另外向 Redis 内写入数据,多了一个步骤,但它扩展灵活,而且代码简单优雅。最终使用了第三种方式来进行。结果这种方式虽然也会有瓶颈,最后应该会落在 Redis 的网络 IO 上。我也没有闲心开 n 个进程去挑战公司 Redis 的性能,运行 10 个进程三四分钟就完成了统计。即使再加上 Redis 写入的耗时,10分钟以内也妥妥的。一开始产品对匹配速度已经有了小时级的定位了,当我 10 分钟就拿出了新的日志匹配结果,看到产品惊讶的表情,心里也是略爽的,哈哈~他径,也能帮你走得更远总结解决问题的方法有很多种,我认为在解决各种问题之前,要了解很多种知识,即使只知道它的作用。就像一个工具架,你要先把工具尽量摆得多,才能在遇到问题时选取一个最合适的。接着当然要把这些工具用是纯熟了,这样才能使用它们去解决一些怪异问题。工欲善其事,必先利其器,要想解决性能问题,掌握系统级的方法还略显不够,有时候换一种数据结构或算法,效果可能会更好。感觉自己在这方面还略显薄弱,慢慢加强吧,各位也共勉。

企业还需要提交组织机构代码/营业执照副本(企业)/法人证书(事业、政府、社会团体)扫描件,网站负责人的相关证件,具体可以参考主机商的指导,他们都具有详细的介绍。这是一个最影响用户体验的操作,为了使得损失降低到最低点,保留网站的关键词排名与权重,你需要到百度搜索资源平台->网站支持->优化与维护的板块下面,提交网站改版需求。

声明:文字图片等素材除标明原创外均来源于网络,如有侵权,请及时告知我们,将在最短的时间内删除!
推荐免费网站建站
更多