2022-04-30 15:27 浏览:
项目阶段 | 课程主题 | 课程目标 |
第一阶段(Java基础) | Java语言的高级特性、Java多线程、XML、Web |
掌握Java语言的高级特性; 掌握Java线程池技术,掌握线程的Join、notify、notifyAll等机制; 基于Xml的解析与维护; 掌握简单的Html,Css,Js的编写 |
第二阶段(Web阶段,易买网项目贯穿) | JAVAWEB前端技术、JAVAWEB基础技术、JAVAWEB高级技术、JAVAWEB框架加强 |
了解真实项目开发流程,掌握前端开发基本技术、 掌握JAVAWEB基础知识,深入理解软件分层思想,AJAX实现异步刷新 过滤器、监听器及常见应用场景,文件上传、下载,在线支付功能实现 aa; JAVA高级特性,熟悉常见设计模式,通过模拟实现框架功能,为后续学习SSH打基础 |
第三阶段(Struts,Hibernate,Spring,SSH项目贯穿) | Struts2、Hibernate、Spring、JQuery、JS高级、Maven、SSH项目:国际物流 |
掌握Struts2在项目开发时用到的各种知识点,能够应用,该框架熟练的开发; 熟练掌握利用Hibernate框架完成项目的开发,深入理解ORMapping的概念,深入理解缓存机制; 深入理解SpringIOC、DI在软件架构中的作用,深入理解SpringAOP的实现机制和应用场景,Struts2的高级特性(对象工厂、静态注入、插件机制、ThreadLocal针对ActionContext的封装、Struts2的核心流程、结果集架构)、深入理 解SSH整合的原理; 利用JQuery控制Web界面; 对象、原型、闭包、JQuery内部结构解析等; 能用Maven搭建项目环境 熟练使用Maven的依赖和继承机制; 掌握画USECASE图、系统结构图、系统框架图。 面试能顺畅讲述国际物流核心业务,包括:购销合同、出口报运、装箱、委托、发票、财务。 了解大型数据库设计思路,及数据库在设计上如何优化。 熟练实现合同、货物、附件两级主从结构。 熟练POI制式表单应用。 熟练应用Shiro顶级安全框架。 熟练应用工作流Activiti5实现货运管理流程控制 |
第四阶段(SpringMVC,Mybaties,SSM项目贯穿) | SpringMVC、MyBaties、SSM项目(易买电商) |
熟练掌握SpringMVC的各个组件,理解SpringMVC的架构原理,利用SpringMVC开发项目; 了解电商项目的需求分析,掌握用pom.xml文件构建项目,实现电商项目的前台的内容管理、菜单管理、购物等。掌握Redis缓存如何提供性能、利用Solor做全文检索、利用ActivityMQ的异步机制把缓存中的改动同步到 各个环节、掌握MySQL的主从复制和读写分离。利用lvs,keepalived,nginx,tomcat搭建高并发的web环境 |
第五阶段(分布式、高并发、集群、电信项目贯穿) | 网络编程、数据仓库、分布式缓存、Zookeeper、集群、SOA、云计算、电信项目 |
把电信项目的部分环节利用mina、RPC技术实现; 掌握数据仓库的知识内容,这是云计算分析的基础; 掌握两种缓存的原理、以及操作; 了解Zookeeper的选举算法、同步机制、掌握Zookeeper的集群的搭建; 利用Lvs、Keepalived、Nginx、Tomcat搭建高并发、分布式的Web服务器; 利用服务性框架使得系统的耦合性更弱,扩展性更强; 理解云计算; 通过项目掌握MySQL的集群、读写分离、优化、掌握Mina框架的通信机制、掌握Zookeeper的高可用机制、利用MySql掌握数据仓库的概念、利用分布式缓存提高系统的性能 y23g cz |
第六阶段(Hadoop,Spark,电信项目贯穿) |
Hadoop的分布式文件系统HDFS、Hadoop的计算框架MapReduce、Hadoop的资源管理与资源调度 Yarn框架、HBase、HIVE、Spark、电信项目 |
Hadoop伪分布式的搭建、利用HDFS的API对分布式文件系统进行操作、掌握NameNode与SecondaryNameNode的通信原理、掌握NameNode与DataNode的通信原理; 熟练Map、Reducer、Sort、Partition的编程、深入理解Shuffle机制、深入理解OutPutFormat与InputFormat、基于Hadoop的对象序列化机制; 深入理解Yarn的资源管理与资源调度机制。掌握整个MapReducer的计算流程和资源调度流程; 掌握HBase的集群的的搭建; 利用HIVE做日志分析的查询; 利用Spark流式编程做日志的分析; 熟练应用Hadoop的MapReducer,Hive与Spark |