zoukankan      html  css  js  c++  java
  • Windowsx64位安装pymssql并完成与数据库链接

    常流程只需要打开下载并按照常规方法安装mssql包即可在程序中import pymssql,不过安装mssql确实有些小麻烦。

    从开始安装就开始出现了各种异常错误

    首先出现sqlfront.h文件找不多,查了很多资料也没有看明白是什么个原因。。

    最终在这里仔细阅读了一下文档,开始一步步尝试往下解决

    大致的意思是讲其实pymssql是依赖于一个叫FreeTDS的东西,查了一下它是一个C语言链接sqlserve的公共开源库。

    在windows下安装接下来参照这篇文档说明开始准备下载freetds-v0.95.95-win-x86-vs2008.zip

    当然这里可以根据自己的Python版本去下载对应的包,下载地址

    下载完后发现里边的文件目录大致是这样的

    打开include一看,原来我需要的文件都在这个文件里,然后就把这个的所有文件bin+include+lib+lib-nossl全部copy到python的安装目录再试一下没有原来的错误了

    新的问题又出现了,无法打开输入文件“db-lib.lib”

     这里就比较蛋疼了,单仔细阅读以下,翻到文章结尾的安装包

    既然用pymssql-2.1.3.tar.gz不能正确安装,就换一种方式,于是下载了2中的whl文件

    下载完后将 pymssql-2.1.3-cp27-cp27m-win_amd64.whl放在安装文件目录中,运行CMD到指定文件目录

    这时出现以下错误:

    Requirement already satisfied: pymssql==2.1.3 from file:///C:/Python/pymssql-2.1
    .3-cp27-cp27m-win_amd64.whl in c:python2.7.11libsite-packages

    错误提示很明显示因为之前安装时已经将文件放在了c:python2.7.11libsite-packages文件中,因此在site-packages中删掉pymssql的安装,再试一次顺利完成!

    最后为了验证以下,在文件中链接当前数据库看一下是否可以连通。。

    #coding:utf-8
    import urllib2
    import os
    import sys
    reload(sys)
    sys.setdefaultencoding("utf-8")
    import urllib
    import string
    from bs4 import BeautifulSoup #导入解析html源码模块
    import pymssql #导入mssql数据库连接包
    conn=pymssql.connect(host='127.0.0.1',user='testdb',password='testdb@123',database='IM_CRM')
    cur=conn.cursor()
    cur.execute('select top 5 * from [dbo].[crm_Cart]')
     #如果update/delete/insert记得要conn.commit()
     #否则数据库事务无法提交
    print (cur.fetchall())
    cur.close()
    conn.close()

    打印结果看一下

    对比以下数据库

    仔细观察没有问题,用这种方式一样可以链接数据库,到这里就开始后面的详细业务编写吧。

    最后再附一个抓取的py文件吧

    #coding:utf-8
    import urllib2
    import os
    import sys
    reload(sys)
    sys.setdefaultencoding("utf-8")
    import time
    import datetime
    import urllib
    import string
    from bs4 import BeautifulSoup #导入解析html源码模块
    import pymssql #导入mssql数据库连接包
    
    print "开始时间:"+datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S.%f')
    
    #抓取页面逻辑
    for num in range(101,200+1):#页数控制
     url = "http://xxx/Suppliers.asp?page="+str(num)+"&hdivision=" #循环ip地址
     header = {
                "User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.22 Safari/537.36 SE 2.X MetaSr 1.0",
                "Referer":"http://xxx/suppliers.asp"
            }
     req = urllib2.Request(url,data=None,headers=header)
     req.encding="utf-8"
     ope = urllib2.urlopen(req)
     #请求创建完成
     soup = BeautifulSoup(ope.read(), 'html.parser')
    
     COMCount = 0
     tableTrList=soup.select("table tr")
     tableTrList.remove(tableTrList[0])
     for trtag in tableTrList:
         COMCount+=1
         companyname= trtag.contents[1].a.string # 公司名称
         area=trtag.contents[3].string # 地区
         tel=trtag.contents[5].string # 电话
         web = trtag.contents[7].a.string  # 网址
         prolisturl=trtag.contents[11].a['href']#产品列表链接
         companyID=prolisturl[20:] #获取公司对应ID
         print  str(COMCount)+'获取产品列表链接:http://www.xxx/'+prolisturl
         if companyname is None:
             companyname=""
         if area is None:
             area = ""
         if tel is None:
             tel = ""
         if web is None:
             web = ""
    
         print "公司名称:"+companyname
         print "地区:" + area
         print "电话:" + tel
         print "网址:" + web
         print str(COMCount)+"公司信息开始写入:"+"INSERT INTO [dbo].[Company](BioID,ComName,Area,Tel,WebSite,InDate) VALUES ('"+companyID+"','"+companyname+"','"+area+"','"+tel+"','"+web+"','"+datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S.%f')+"') "
    
         #写入企业信息起
         conn = pymssql.connect(host='GAOMS-PCSQLEXPRESS', user='test', password='abc123!@#', database='BIO-EQUI')
         cur = conn.cursor()
         cur.execute("INSERT INTO [dbo].[Company](BioID,ComName,Area,Tel,WebSite,InDate) VALUES ('"+companyID+"','"+companyname+"','"+area+"','"+tel+"','"+web+"','"+datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S.%f')+"') ")
         conn.commit()
         cur.close()
         conn.close()
         #写入企业信息止
         print str(COMCount)+"公司信息写入完成"
    
    
    
    
         #验证公司下是否有产品
         urlpropage="http://xxx/otherproduct.asp?id="+companyID
         #urlpropage="http://xxx/otherproduct.asp?id=64356"#测试某一产品地址排查异常使用
         headerpropage = {
             "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.22 Safari/537.36 SE 2.X MetaSr 1.0",
             "Referer": "" + url
         }
         reqpropage = urllib2.Request(urlpropage, data=None, headers=headerpropage)
         reqpropage.encding = "utf-8"
         opepropage = urllib2.urlopen(urlpropage)
         souppropage = BeautifulSoup(opepropage.read(), 'html.parser')
         tableTrPageCount = souppropage.select("table tr")
         ProPageCount='0'
         if (len(tableTrPageCount) > 0):
             try:
                 ProPageCount=str(souppropage.select("form p")[0])
                 dijiye=ProPageCount[ProPageCount.index(""):].replace("
    "," ").replace("</p>"," ").strip()
                 ProPageCount=dijiye[dijiye.index("/")+1:].replace(""," ").strip()
                 print "产品"+str(COMCount)+"下包含"+ProPageCount+"页产品__________________________________"
                 PROCount = 0
                 # 循环获取产品列表内容
    
                 if (int(ProPageCount)>2):
                     ProPageCount=2 #如果产品页数过多只去前2页
    
                 for numpro in range(1, int(ProPageCount)+1):
                     urlprolist = "http://www.bio-equip.com/" + str(prolisturl) + "&page=" + str(numpro) + "&hdivision="  # 循环链接
                     headerprolist = {
                         "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.22 Safari/537.36 SE 2.X MetaSr 1.0",
                         "Referer": "" + url
                     }
                     reqprolist = urllib2.Request(urlprolist, data=None, headers=headerprolist)
                     reqprolist.encding = "utf-8"
                     opeprolist = urllib2.urlopen(reqprolist)
                     soupprolist = BeautifulSoup(opeprolist.read(), 'html.parser')
                     tableTrListCount = soupprolist.select("table tr")
                     #print tableTrListCount 打印获取的表格数据
                     tableTrListCount.remove(tableTrListCount[0])
                     for trtagPro in tableTrListCount:
                         PROCount += 1
                         proname = trtagPro.contents[0].a.string  # 产品名称
                         proPlace = trtagPro.contents[2].string  # 产品产地
                         ProType = trtagPro.contents[4].string  # 产品型号
                         if proPlace is None:
                             proPlace = ""
                         if area is None:
                             area = ""
                         if ProType is None:
                             ProType = ""
                         print "产品名称:" + proPlace
                         print "产品产地:" + area
                         print "产品型号:" + ProType
                         print "获取" + str(COMCount) + "下产品:" + str(PROCount) + proname + "" + str(numpro) + ""
    
                         print str(COMCount)+"_"+str(PROCount)+"产品写入开始"+"INSERT INTO [dbo].[Product](ComID,ProName,ProPlace,ProType) VALUES ('" + companyID + "','" + proname + "','" + proPlace + "','" + ProType + "') "
    
                         # 写入企业产品信息起
                         connpro = pymssql.connect(host='GAOMS-PCSQLEXPRESS', user='test', password='abc123!@#',database='BIO-EQUI')
                         curpro = connpro.cursor()
                         curpro.execute("INSERT INTO [dbo].[Product](ComID,ProName,ProPlace,ProType,InDate) VALUES ('" + companyID + "','" + proname + "','" + proPlace + "','" + ProType + "','"+datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S.%f')+"') ")
                         connpro.commit()
                         curpro.close()
                         connpro.close()
                         # 写入企业产品信息止
    
             except  Exception:
                 pass
    print "结束时间:" + time.strftime('%Y-%m-%d %H:%M:%S', time.localtime(time.time()))
    View Code
  • 相关阅读:
    js流程控制语句
    js流程控制语句
    js流程控制语句
    js流程控制语句
    Nginx入门及如何反向代理解决生产环境跨域问题
    Nginx入门及如何反向代理解决生产环境跨域问题
    Nginx入门及如何反向代理解决生产环境跨域问题
    arcserver开发小结(三)
    xgqfrms™, xgqfrms® : xgqfrms's offical website of GitHub!
    xgqfrms™, xgqfrms® : xgqfrms's offical website of GitHub!
  • 原文地址:https://www.cnblogs.com/loyung/p/6929323.html
Copyright © 2011-2022 走看看