数据与商业:数字化转型浪潮下的追逐与成就

企业如何运用现代数字化技术来突破自身发展的瓶颈?

人工智能能否在翻译中胜过人类?

虽然人工智能一直在帮助人们在世界上导航已有一段时间,但最近,它开始影响翻译行业。几年来,围绕人工智能翻译有很多炒作。谷歌和必应等科技巨头已经证明,仅使用一台计算机就可以以几乎人类水平的准确度翻译多种语言的文本。这是一个重大突破,只有通过新的研究和创新的人工智能工具才能变得更好。换言之,翻译行业正因人

疫情隔离区订餐系统的开发

本系统避免了大多数订餐平台在不能很好满足隔离区人们订餐的需求所造成的局限性,针对防疫处理有一定的针对性。具体功能如下:(1)为用户买卖物品提高效率、提供便捷。(2)为管理员提供了新增和删除用户,以及修改用户密码的功能。(3)为管理员提供了发布、查询、修改、浏览、购买商品的功能。(4)为管理员提供了添

关于数仓的DWD层的讲解和拉链表讲解以及进行JOIN优化

在数仓的构建DWD层的时候有些数据需要去转化成拉链表来经行处理所以在今天我会着重讲解拉链表的使用以及在DWB JOIN表的时候进行的优化防止数据倾斜

互联网大厂数据分析面试常见问题及解法,建议收藏

从面试官的角度沉淀了一些常见的数据分析问题以及问题背后考察的能力,并为大家一一拆解背后的逻辑,助力大家拿offer!

Spark-Sql RewriteDistinctAggregates

spark sql 优化规则:RewriteDistinctAggregates

MapReduce经典案例—倒排索引

目录一、问题介绍(一)案例分析1. 倒排索引介绍2. 案例需求及分析(二)案例实现 1. Map阶段实现2. Combine阶段实现3. Reduce阶段实现4. Driver程序主类实现5. 效果测试二、完整代码 三、运行结果倒排索引是文档检索系统中最常用的数据结构,被广泛应用于全文搜索

粽子大战 —— 猜猜谁能赢

端午节到了,南北两大粽团展开了一场轰轰烈烈的大PK。Matplot3D for JAVA组件提供简单的外观API,可以方便生成三维效果的图形图表。可用于大数据可视化、科学数据分析可视化等领域。在使用GUI显示时支持鼠标等输入设备交互式操作,可方便的缩放和改变观察角度。支持动态编程,可实时生成三维模型

创建Spark工程

期末小作业

大数据发展前景及就业方向【大数据专业讲座】

1、选择一门重点学习的编程语言:Java或者Python2、学习必备的数据库、Linux操作系统3、根据不同的方向针对性强化 - 大数据开发方向:一定要去钻研Hadoop平台及其组件、Hive数据仓库、Spark交互计算框架等。

第3期:零基础在校大学生应该如何学习大数据?

目前大数据是一个非常有发展前景的岗位,在IT界薪资待遇也很高,很多人想从事这方面的工作,那零基础的在校大学生应该如何学习大数据呢?

软件技术更新速度很快,担心自己掌握的技术会过时?

过时的不是基础的技术原理和方法,而是人的思考能力以及没有跟上节奏的对技术的认知。

数据湖(四):Hudi与Spark整合

默认Spark操作Hudi使用表类型为Copy On Write模式。Hudi与Spark整合时有很多参数配置,可以参照https://hudi.apache.org/docs/configurations.html配置项来查询,此外,整合时有几个需要注意的点,如下:Hudi这里使用的是0.8.0版

第9篇:ElasticSearch分布式搜索6大能力

Elasticsearch最大的优势在于其检索能力。那为了适配日常不同业务的多种查询需求,Elasticsearch为我们提供了六大搜索方式: 轻量搜索、表达式搜索、复杂搜索、全文搜索、短语搜索和高亮搜索。

第2期:大数据岗位有哪些

目前大数据是一个非常有发展前景的岗位,在IT界薪资待遇也很高,很多人想从事这方面的工作,那下面我们谈谈大数据可以应用到哪些领域,需要哪些技术、都有哪些岗位。

ZooKeeper的配置选项的安装步骤

(一)下载和安装zooKeeper(1)在起始的/opt 目录下建立software文件和module文件,software文件用来下载安装包,下载后的安装包·可以·解压到module文件。可以用下面这一行代码:tar zxvf /opt/software/zookeeper-3.4.8.tar.g

Kafka中的LEO和HW

通过画图轻松理解kafka中的LEO和HW的概念与作用

flink的standalone模式环境搭建

一.standalone模式所有的资源都由flink自己管理flink的jar包:flink-1.11.2-bin-scala_2.11.tgz把安装包放到linux中bin #服务或命令conf #配置文件examples #实例,案例lib #jar包log #日志1.解压缩tar -xz

filebeat+elasticsearch管道提取message字段

1:个人使用背景:filebeat采集日志写入es的时候,日志内容在message字段中,因为其中添加了tid字段,要提取出projectname,date,tid等这些字段,采用管道对数据进行预处理,格式化数据,重新构建了索引,最后查询,排序,条件查询什么的都直接操作字段就可以了。 ps:原

hadoop启动集群之后没有namenode的一种情况

先说结论吧,一般在网上搜索这个问题都是让重新格式化namenode(当然,格式化之前要记得清空namenode和DataNode文件夹)。但是对于我之前遇到的问题却没法解决。我的做法是:检查你的hadoop的配置文件是否填写正确,我的hadoop的hdfs-site.xml中的主机IP地址未填写正确

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈