本文是关于 redux(3.7.2)源代码的一些浅读
在redux源码目录中 ,可以看到以下文件目录:
1 | |-- utils/ |
与文件对应的,主要也是介绍 createStore compose combineReducers bindActionCreators applyMiddleware这几个函数。
本文是关于 redux(3.7.2)源代码的一些浅读
在redux源码目录中 ,可以看到以下文件目录:
1 | |-- utils/ |
与文件对应的,主要也是介绍 createStore compose combineReducers bindActionCreators applyMiddleware这几个函数。
介绍原始写法 & 及其改进写法一
还有比较流行的 styled-components在RN中的使用 & 及其改进写法二
1 | /** |
原写法的缺点在于变量不好引入,不好体现样式间的关系,没有计算表达式等……
分类的实现原理,编译时的表现,运行时的加载原理
参考文档: objc4-723
category的主要作用是为已经存在的类添加方法。可以把类的实现分开在几个不同的文件里面。
Category用Category_t结构体定义:
1 | typedef struct category_t { |
介绍 对象关联,以及如何为Category添加weak属性
apple open source
创建一个类的分类Category
,并添加一个属性CategoryProperty
,分类中的@CategoryProperty并没有帮我们生成实例变量以及存取方法,要求我们手动实现,这时候就需要用到对象关联。
在分类中,因为类的实例变量的布局已经固定,使用 @property 已经无法向固定的布局中添加新的实例变量(这样做可能会覆盖子类的实例变量),所以我们需要使用关联对象以及两个方法来模拟构成属性的三个要素。
关联对象又是如何实现并且管理的呢:
本文主要讲使用IP代理防止爬虫被禁
在 python爬虫中爬取到大约184条数据后,zhipin网站就会采取链接重定向方式 阻止爬取。如果在代码中取消登录操作 , 直接爬取到大约92条数据,你的 IP 就会被封啦~
为了防止这个悲剧发生 根据Scarpy https://doc.scrapy.org/en/latest/topics/practices.html?highlight=banned#avoiding-getting-banned 有以下几个建议:
scrapy基础实例,爬取zhipin网站信息
scarpy的新建 + scarpy模拟登录 + 在pipeline中存取信息到sqlite3 +xpath解析页面
1 | scrapy startproject projectName |
具体可以查看 python3爬虫学习
发现 parse 或者 start_requests是爬虫的入口
python3 爬虫
网络连接
1 | from urllib.request import urlopen |
BeautifulSoup
中文文档 https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/
Serialization 包括
AFURLResponseSerialization
和AFURLRequestSerialization
AFURLResponseSerialization 是处理响应的模块,将请求返回的数据解析成对应的格式。而AFURLRequestSerialization的主要作用是修改请求(主要是 HTTP 请求)的头部,提供了一些语义明确的接口设置 HTTP 头部字段。
AFURLResponseSerialization 是一个协议,协议的内容为:
1 | - (nullable id)responseObjectForResponse:(nullable NSURLResponse *)response |
它的实现类为:
在文件中 所有类都遵循AFURLResponseSerialization,而AFHTTPResponseSerializer是其他类的基类。
AFURLSessionManager 和 AFHTTPSessionManager 是AFNetworking的核心类
这里先阅读AFURLSessionManager。
1 | NSURLSessionConfiguration *configuration = [NSURLSessionConfiguration defaultSessionConfiguration]; |