Tag: csv

没有Stata软件将Stata .dta文件转换为CSV

有没有办法将dta文件转换为CSV? 我没有Stata的版本,所以我不能做像保存为CSV文件的东西。

导出没有col.names的CSV

我需要一个data.frame并将其导出到CSV文件(或其他东西,但CSV似乎是最简单的格式良好的格式),所以我可以将其导入到SQLite数据库。 但是,它看起来像write.csv()要求我写一个标题行,而SQLite的.import命令要求我没有标题行。 所以这是一个不匹配的。 以下是如果我试图省略标题行会发生什么情况: > write.csv(mydf, "/tmp/mydf.csv", row.names=F, col.names=F) Warning message: In write.csv(mydf, "/tmp/mydf.csv", row.names = F, col.names = F) : attempt to set 'col.names' ignored 我不得不想知道为什么它首先执行 – 手册说: “这些包装是故意不灵活的:它们的devise是为了确保使用正确的约定写一个有效的文件。试图改变append , col.names , sep , dec或qmethod被忽略,并带有警告。 但是我不知道规范或其他地方需要列名 – 实际上,大多数工具(Excel等)并没有特别对待它们。

读取一个巨大的.csv文件

我目前正在尝试从Python 2.7中的.csv文件读取数据,最多有100万行,200列(文件范围从100mb到1.6gb)。 我可以做到这一点(非常缓慢)的文件与30万行以下,但一旦我上面,我得到内存错误。 我的代码如下所示: def getdata(filename, criteria): data=[] for criterion in criteria: data.append(getstuff(filename, criteron)) return data def getstuff(filename, criterion): import csv data=[] with open(filename, "rb") as csvfile: datareader=csv.reader(csvfile) for row in datareader: if row[3]=="column header": data.append(row) elif len(data)<2 and row[3]!=criterion: pass elif row[3]==criterion: data.append(row) else: return data getstuff函数中的else子句的原因是,所有符合条件的元素都将在csv文件中一起列出,所以当我通过它们以节省时间时离开循环。 我的问题是: 我怎样才能设法让这个更大的文件工作? 有什么办法可以让它更快? 我的电脑有8GB RAM,运行64位Windows 7,处理器是3.40 GHz(不确定你需要什么信息)。 […]

导出到js中的csv

我dynamic生成一个div,就像: <div id='PrintDiv'> <table id="mainTable"> <tr> <td> Col1 </td> <td> Col2 </td> <td> Col3 </td> </tr> <tr> <td> Val1 </td> <td> Val2 </td> <td> Val3 </td> </tr> <tr> <td> Val11 </td> <td> Val22 </td> <td> Val33 </td> </tr> <tr> <td> Val111 </td> <td> Val222 </td> <td> Val333 </td> </tr> </table> </div> 而且页面上还有很多元素。 现在,我怎样才能得到这样的CSV文件: Col1,Col2,Col3 Val1,Val2,Val3 […]

CSV阅读器(Python)中“行包含NULL字节”

我试图编写一个查看.CSV文件(input.csv)的程序,并只重写以文本文件(output.txt)中列出的某个元素(corrected.csv)开始的行。 这是我的程序现在看起来像: import csv lines = [] with open('output.txt','r') as f: for line in f.readlines(): lines.append(line[:-1]) with open('corrected.csv','w') as correct: writer = csv.writer(correct, dialect = 'excel') with open('input.csv', 'r') as mycsv: reader = csv.reader(mycsv) for row in reader: if row[0] not in lines: writer.writerow(row) 不幸的是,我不断收到这个错误,我不知道这是什么。 Traceback (most recent call last): File "C:\Python32\Sample Program\csvParser.py", line 12, […]

使用fileHelpers库的CSV列标题?

在FileHelper库中有一个内置的字段属性,它将在最终生成的CSV中添加一个标题行? 我有谷歌search,没有find关于它的很多信息。 目前我有这个: DelimitedFileEngine _engine = new DelimitedFileEngine(T); _engine.WriteStream (HttpContext.Current.Response.Output, dataSource, int.MaxValue); 它工作,但没有标题。 我正在考虑像FieldTitleAttribute这样的属性,并将其用作列标题。 所以,我的问题是在哪一点检查属性和插入标题列? 有没有人做过类似的事情? 我想要插入标题,并使用不同于实际字段名称的自定义文本,只需在对象的每个成员上都有一个属性即可: [FieldTitleAttribute("Custom Title")] private string Name 也可以select在生成时告诉引擎插入标题。 所以当调用WriteStream或WriteString时,标题行将被插入自定义标题。 我已经find了一些关于DelimitedFileEngine的事件,但没有什么是检测当前logging是否是第一行以及如何在此之前插入行的最佳方法。

LOAD DATA LOCAL,如何跳过第一行?

我试图加载一个CSV文件到我的MySQL数据库,但我想跳过第一行。 我其实它包含我的列的名称,没有有趣的数据。 这是我正在使用的查询: LOAD DATA LOCAL INFILE '/myfile.csv' INTO TABLE tableName FIELDS TERMINATED BY ',' ENCLOSED BY '\"' LINES TERMINATED BY '\n' (column,column,column);

尽pipevarchar(MAX)用于每列,但在导入CSV文件时SQL Server中出现错误

我试图插入一个大的CSV文件(几个演出)到SQL Server,但一旦我通过导入向导,最后尝试导入文件,我得到以下错误报告: 执行(错误)消息错误0xc02020a1:数据stream任务1:数据转换失败。 “”标题“”返回状态值4和状态文本“列的数据转换被截断或目标代码页中一个或多个字符不匹配。 (SQL Server导入和导出向导) 错误0xc020902a:数据stream任务1:“源 – Train_csv.Outputs [平面文件源输出] .Columns [”标题“]”失败,因为截断发生,截断行处置“Source – Train_csv.Outputs [Flat File Source输出] .Columns [“标题”]指定截断失败。 指定组件的指定对象上发生截断错误。 (SQL Server导入和导出向导) 错误0xc0202092:数据stream任务1:处理数据行2上的文件“C:\ Train.csv”时发生错误。(SQL Server导入和导出向导) 错误0xc0047038:数据stream任务1:SSIS错误代码DTS_E_PRIMEOUTPUTFAILED。 Source – Train_csv上的PrimeOutput方法返回了错误代码0xC0202092。 pipe道引擎调用PrimeOutput()时,组件返回失败代码。 失败代码的含义由组件定义,但错误是致命的,并且pipe道停止执行。 在此之前可能会发布错误消息,提供有关失败的更多信息。 (SQL Server导入和导出向导) 我创build了表格来将文件插入到第一个列表中,并将每列设置为保存varchar(MAX),所以我不明白我是如何仍然有这个截断问题。 我究竟做错了什么?

在Linux中用文本文件中的逗号replace空格

我需要编辑几个文本文件(从sar输出),并将其转换为CSV文件。 我需要使用sed或awk函数(在Linux中简单的shell脚本)来更改每个空白(也许它是输出中的数字之间的选项卡)。 谁能帮我? 我使用的每个命令根本没有改变文件; 我试过gsub 。

如何使用LOAD DATA INFILE导入到MySQL表中时跳过CSV文件中的列?

我有一个有11列的CSV文件,我有一个9列的MySQL表。 CSV文件如下所示: col1, col2, col3, col4, col5, col6, col7, col8, col9, col10, col11 和MySQL表格看起来像: col1, col2, col3, col4, col5, col6, col7, col8, col9 我需要将CSV文件的第1-8列直接映射到MySQL表的前8列。 然后,我需要跳过CSV文件中的下两列,然后将CSV文件的第11列映射到MySQL表的第9列。 目前我正在使用下面的SQL命令: LOAD DATA LOCAL INFILE 'filename.csv' INTO TABLE my_table FIELDS TERMINATED BY ',' ENCLOSED BY '' LINES TERMINATED BY '\n' 但是,上面的代码将CSV文件的前9列映射到MySQL表中的9列。