Pip介绍

pip 是一个安装和管理 Python 包的工具,python安装包的工具有easy_install, setuptools, pip,distribute。使用这些工具都能下载并安装django。,而pip是easy_install的替代品。在CPython解释器,pypy解释器,可以很好地工作。

 1、直接安装pip,我们发现会出现错误

 [root@localhost yum.repos.d]# yum install -y pip-python
已加载插件:fastestmirror, langpacks
Loading mirror speeds from cached hostfile
 * base: mirrors.aliyun.com
 * epel: mirrors.aliyun.com
 * extras: mirrors.aliyun.com
 * updates: mirrors.aliyun.com
没有可用软件包 pip-python。

错误:无须任何处理

解决方法:

2、要先安装epel-release,,这个包包含了 EPEL 源的 gpg 密钥和软件源信息,该软件包会自动配置yum的软件仓库

[root@localhost yum.repos.d]#yum -y install epel-release

3、执行成功之后,再次执行yum install python-pip

[root@localhost yum.repos.d]#yum -y install python-pip

解决pip install报timeout:

执行:pip install --upgrade pip

报错:ReadTimeoutError: HTTPSConnectionPool(host='files.pythonhosted.org', port=443): Read timed out.

解决方法:pip install --upgrade pip -i https://pypi.douban.com/simple

在安装一些包经常超时报错,解决方法:

pip install Pyinstaller -i http://pypi.douban.com/simple --trusted-host pypi.douban.com
(其中的Pyinstaller是你需要下载的库或包名,根据自己需求自行更改即可)

 python2安装不了,手动更新了python3:yum install python3:这里是用yum安装的,登录直接敲python3,后续尝试直接下载包再解压

然后: pip3 install jupyter -i http://pypi.douban.com/simple --trusted-host pypi.douban.com

成功。

 解决jupyter在windows上无法访问

但是jupyter在windows上无法访问

解决办法:开启jupyter远程

首先:

[root@hadoop01 bin]# jupyter notebook --generate-config
Writing default config to: /root/.jupyter/jupyter_notebook_config.py

linux服务器连接jupyternotebook显示服务器拒绝访问。
修改jupyter_notebook_config.py文件,添加一行:

c.NotebookApp.allow_credentials = True

允许远程连接。

还是不行,修改:
c.NotebookApp.ip='*' #设置访问notebook的ip,*表示所有IP,这里设置ip为都可访问
可以在windows访问!
设置登录密码可参考:
https://blog.csdn.net/qq_35843543/article/details/81409269

修改jupyter默认文件夹:

jupyter-notebook --generate-config

#c.NotebookApp.notebook_dir = u'',删除#,并输入要打开的文件目录
如替换为 c.NotebookApp.notebook_dir = '/usr/luxia/learn_jupyter' 
 
 

 在jupyter跑spark

之前已经在centos001上搭了一个单机版的spark,
再pip3 install pyspark就可以实现在jupyter notebook上跑spark程序了
import pyspark
from pyspark.sql import SparkSession
from pyspark import SparkContext
sc=SparkContext(master="local",appName="first_name")
data=[1,2,3]
dd=sc.parallelize(data,3)
dd.collect()

输出:

[1, 2, 3]

另外在shell语句前加!也可以直接执行:

!echo "hhh"