如何更改IPython Shell文本文字颜色(Windows Powershell)

https://stackoom.com/question/3kgln/%E5%A6%82%E4%BD%95%E6%9B%B4%E6%94%B9IPython-Shell%E6%96%87%E6%9C%AC%E6%96%87%E5%AD%97%E9%A2%9C%E8%89%B2-Windows-Powershell

重点敲黑板:

C:\Users\xuzhen.ipython\profile_default

ipython profile create
产生的ipython_config文件是在这里,而不是你想要改变的环境的目录!天坑
默认的字体颜色都不行,暗红色字体在黑色背景下根本看不清

powershellipython

问题定义

我在Windows Powershell上使用IPython。 由于某种原因,字符串文字的颜色是深红色,难以理解:

Powershell中的Ipython

为了进行比较,这是使用powershell“ shell”和Ipython在VSCode上的外观:

IPython在VSCode中的Powershell中

IPython当然使用一些命令来告诉外壳要使用的颜色。 如何将字符串文字颜色修改为浅红色? 我希望这是计算机范围(或至少用户范围)的设置。powershellipython

3 个回复

按投票数排序按时间排序

===============>>#1 票数:3

这是我为使文本更具可读性所做的工作。 感谢SO用户TheoChristoph为我指出了正确的方向。

1.检查~\\.ipython没有任何配置文件

  • 在Windows上~转换为C:\\Users\\<USER>\\ 。

2.跑ipython profile create

  • 输出是
PS C:\Somefolder> ipython profile create
[ProfileCreate] Generating default config file: 'C:\\Users\\<USER>\\.ipython\\profile_default\\ipython_config.py'

3.编辑了ipython_config.py

  • 编辑了以下行:
#c.TerminalInteractiveShell.highlighting_style_overrides = {}

进入

from pygments.token import Token
c.TerminalInteractiveShell.highlighting_style_overrides = {Token.String: '#ff0000'}

pandas read_html+beautifulsoup爬虫中国产业研究院2019年三季度3688家上市公司的季报信息

今天靠港避风,大风浪对我的进度影响不大,风浪中昏睡半天后生产力反而更强大了。
两天一个小项目,今天完成了爬取3688家上市公司的2019年三季报基本信息,目标网站中国产业研究院,入门级爬虫先找个软柿子吧,目前还没研究验证码和模拟登陆。轮子造好之后可以顺利爬取N多年的季报和年报基本信息,爬完处理下可以出个小分析报告了。
还是老样子,笔记本上调试完代码爬出来输出到mysql中,因为远程v p n没有设置好mysql索性输出到了csv文件,也方便索引。
船上的龟速导致我昨天晚上代码老是掉链子,经常容易read timeout,设置了retry也不行。今天完善了下代码框架,增加了user-agent随机性,并加入了高质量的proxy(高质量vpn五个),虽然速度慢了但是稳定性加强了,可以hands free模式了。本地笔记本10秒左右有时候好几分钟,远程机器因为网速快也就3-5秒一页(太快了不稳定)。
这次用了新的方案,pandas 的read_html特别适合处理表格,+beautifulsoup解析。
图一中国产业研究院,图二mysql数据表,图三vbn代码运行,图四笔记本代码运行。100
多行代码,以后可以轻松爬各种表格形式的数据了。

pyPDF2办公利器

昨天还是风平浪静,今天就开挂了,虽然离开了工区,但是风浪依旧很大,老船员down for weather了。
网速更是慢的啥都干不了,合并了个pdf,就晕的不行了。安利个pyPDF2,合并pdf比网上带水印的强多了,普通应用够了,还能批量处理。

beautifulsoup中国医疗保险网爬虫

突然想分析下这次疫情影响和国内医疗资源分配的关系,小试牛刀,在笔记本上把代码调好后在vpn上跑了起来,速度自然是快了很多。
爬取的中国医疗保险网,比较官方,这个网站有个坑,我分析它的html页面时发现网站有隐藏元素,政策浏览看不到医院的联系方式(地址,联系电话,网站,邮件),这个就是给爬虫者挖的坑。但是即便知道有坑我还是跳了,联系方式重要性不言而喻。被封了ip再说,手里有三个vpn+笔记本,估计能爬完1529页(30580家医院的信息)。爬完清洗下数据,做下分析再晒图。
代码虽然不长,但是花了我很多时间,最近牺牲的休息时间太多了。最大的坑就是那个隐藏元素不知道怎么有效地提取出来,网页上显性的东西都在html数上比较清晰,深度不算深,方便索引出来。
图一是笔记本上的代码缩略图,2-4是vpn上跑代码图,估计需要一两个小时吧!虽然代码花了一两天,但是远远比人工复制粘贴1529页容易太多。
代码采取了几个简单的反爬策略,即vpn,header设置(time out时间,浏览器伪装等,)随机休眠时间,出错应对策略等。对于比较简单的网站基本上够了。
图五是爬取的第一页,信息还算详细。完事了清洗下数据可以用pyecharts做个图做个可视化。数据有偿可取,请我吃顿饭即可[呲牙]

如何在Jupyter Notebook直接输出(render)图片

http://pyecharts.org/#/zh-cn/render_images

官网虽然有介绍,但是思路不清晰,没有分类的step-by-step,我一通乱撞终于弄好了。最后参考:

  • 我们的目的是实现:
  • make_snapshot(snapshot, '2019-nCoV 数据一览.html', "2019-nCoV 数据一览.png")
  • $ pip install pyecharts-snapshot
  • $ pip install snapshot-selenium

Usage details

Command line options:

$ snapshot output.html [png|jpeg|gif|svg|pdf] [delay] [pixel ratio]
make_snapshot(snapshot, chart_function().render(), "outputfile.png")